Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
为 Flink 集群中的插件添加自定义依赖项
我有一个 Flink 会话集群 作业管理器 任务管理器 版本 1 11 1 配置了 log4j console properties 以包含 Kafka 附加程序 此外 在作业管理器和任务管理器中 我都启用了 flink s3 fs had
ApacheKafka
apacheflink
Flink 处理事件太慢
我使用 Kinesis 数据流作为源 使用 elasticsearch 作为接收器 在 AWS Kinesis Data 分析应用程序中运行 Flink 作业 事件示例 area sessions userId 4450 date 2021
apacheflink
flinkstreaming
amazonkinesisanalytics
Apache Flink 与 Elasticsearch 集成
我正在尝试将 Flink 与 Elasticsearch 2 1 1 集成 我正在使用 Maven 依赖项
Java
elasticsearch
apacheflink
Flink 仪表板版本 1.3.2 中无法执行 CEP 模式,这是由 ClassNotFoundException 引起的
我写了一个像这样的简单模式 Pattern
apacheflink
flinkstreaming
flinkcep
Flink REST API错误:请求与预期格式JarRunRequestBody不匹配
尝试使用下面的 REST API 远程运行 Flink 作业 但抛出错误 curl X POST H Content Type application json data type object id urn jsonschema org
googlecloudplatform
apacheflink
Apache Flink 使用 Windows 在写入 Sink 之前引发延迟
我想知道 Flink 窗口是否可能导致从数据进入管道到写入 Cassandra 中的表之间有 10 分钟的延迟 我最初的意图是将每个事务写入 Cassandra 中的一个表 并在 Web 层使用范围键查询该表 但由于数据量很大 我正在考虑延
Java
apacheflink
flinkstreaming
下沉 kafka 流时看不到消息,并且在 flink 1.2 中看不到打印消息
我的目标是使用kafka读取json格式的字符串 对字符串进行过滤 然后将消息接收出来 仍然是json字符串格式 出于测试目的 我的输入字符串消息如下所示 a 1 b 2 我的实现代码是 def main args Array String
Streaming
apacheflink
如何构建和使用flink-connector-kinesis?
我正在尝试将 Apache Flink 与 AWS kinesis 结合使用 这document https ci apache org projects flink flink docs release 1 7 dev connector
amazonwebservices
Maven
apacheflink
amazonkinesis
connector
我可以将自定义分区器与 group by 一起使用吗?
假设我知道我的数据集不平衡并且我知道键的分布 我想利用它来编写一个自定义分区器 以充分利用运算符实例 我知道关于数据流 partitionCustom https ci apache org projects flink flink doc
apacheflink
flinkstreaming
由于无法找到或加载主类错误,Flink 集群未启动
我正在尝试设置flink并运行集群 尽管我得到以下输出 看起来集群已启动 bin start cluster sh Starting cluster Starting standalonesession daemon on host LAP
Java
apacheflink
Flink 上运行 Beam pipeline 时出现与内存段相关的 EOFException
我正在尝试在我们的测试集群上的 Flink 上运行 Apache Beam 管道 它一直失败EOFException at org apache flink runtime io disk SimpleCollectingOutputVie
apacheflink
ApacheBeam
无法执行 HTTP 请求:Flink 中等待来自池的连接超时
我正在研究一个将一些文件上传到 s3 存储桶的应用程序稍后 它从 s3 存储桶读取文件并将其推送到我的数据库 我在用着弗林克1 4 2 and fs s3a API用于从 s3 存储桶读取和写入文件 将文件上传到 s3 存储桶工作正常 没有
amazons3
apacheflink
flinkstreaming
是否可以将 Riak CS 与 Apache Flink 一起使用?
我要配置filesystem状态后端和zookeeper恢复模式 state backend filesystem state backend fs checkpointdir recovery mode zookeeper recover
apacheflink
riakcs
在 kubernetes 上持续部署有状态 apache flink 应用程序
我想在 kubernetes 上运行 apache flink 1 11 1 流应用程序 文件系统状态后端保存到 s3 s3 的检查点正在运行 args standalone job s s3 BUCKET NAME 34619f2862c
Kubernetes
apacheflink
flinkstreaming
如何覆盖 Apache Flink 中的配置值?
我正在尝试将 Apache Flink 的指标收集到 Prometheus 中 Flink 文档说我需要将以下行添加到我的 flink conf yaml 中 metrics reporter promgateway class org a
monitoring
apacheflink
Prometheus
基于 ProcessWindowFunction
的 Flink 单元测试
如何为有状态流程函数创建单元测试 我有这样的事情 private static SingleOutputStreamOperator
Java
apacheflink
flinkstreaming
flinkcep
Apache Flink RollingFileAppender
我正在使用 Apache Flink v1 2 我想切换到滚动文件附加程序 以避免包含几天数据的巨大日志文件 然而它似乎不起作用 我调整了 log4j 配置 log4j properties 如下 log4j appender file o
apacheflink
flinkstreaming
在多个转换中保持键控状态
我有一个流 我想使用某个键对其进行分区 然后运行多个转换 每个转换使用一个状态 当我打电话时keyBy 我得到一个KeyedStream下一个转换可以正确访问分区状态 但之后链接的另一个转换在尝试访问分区状态时会出现异常 例外的是 状态密钥
apacheflink
ClassNotFoundException:使用 kafka 主题时出现 org.apache.flink.streaming.api.checkpoint.CheckpointNotifier
我正在使用最新的 Flink 1 1 2 Hadoop 27 和 flink connector kafka 0 10 2 hadoop1 jar Flink消费者如下 StreamExecutionEnvironment env Stre
ApacheKafka
apacheflink
flinkstreaming
«
1
2
3
4
5
6
7
8
»