Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
在 kubernetes 上持续部署有状态 apache flink 应用程序
我想在 kubernetes 上运行 apache flink 1 11 1 流应用程序 文件系统状态后端保存到 s3 s3 的检查点正在运行 args standalone job s s3 BUCKET NAME 34619f2862c
Kubernetes
apacheflink
flinkstreaming
如何覆盖 Apache Flink 中的配置值?
我正在尝试将 Apache Flink 的指标收集到 Prometheus 中 Flink 文档说我需要将以下行添加到我的 flink conf yaml 中 metrics reporter promgateway class org a
monitoring
apacheflink
Prometheus
基于 ProcessWindowFunction
的 Flink 单元测试
如何为有状态流程函数创建单元测试 我有这样的事情 private static SingleOutputStreamOperator
Java
apacheflink
flinkstreaming
flinkcep
Apache Flink RollingFileAppender
我正在使用 Apache Flink v1 2 我想切换到滚动文件附加程序 以避免包含几天数据的巨大日志文件 然而它似乎不起作用 我调整了 log4j 配置 log4j properties 如下 log4j appender file o
apacheflink
flinkstreaming
在多个转换中保持键控状态
我有一个流 我想使用某个键对其进行分区 然后运行多个转换 每个转换使用一个状态 当我打电话时keyBy 我得到一个KeyedStream下一个转换可以正确访问分区状态 但之后链接的另一个转换在尝试访问分区状态时会出现异常 例外的是 状态密钥
apacheflink
ClassNotFoundException:使用 kafka 主题时出现 org.apache.flink.streaming.api.checkpoint.CheckpointNotifier
我正在使用最新的 Flink 1 1 2 Hadoop 27 和 flink connector kafka 0 10 2 hadoop1 jar Flink消费者如下 StreamExecutionEnvironment env Stre
ApacheKafka
apacheflink
flinkstreaming
如何在 flink 独立安装上进行 kerberos 身份验证?
我有一个独立的 Flink 安装 我想在其上运行一个将数据写入 HDFS 安装的流作业 HDFS 安装是 Cloudera 部署的一部分 需要 Kerberos 身份验证才能读取和写入 HDFS 由于我没有找到有关如何使 Flink 与受
authentication
Hadoop
kerberos
apacheflink
Apache Flink - 启用连接排序
我注意到 Apache Flink 没有优化表的连接顺序 目前 它保留用户指定的连接顺序 基本上 它按字面意思接受查询 我认为 Apache Calcite 可以优化连接顺序 但由于某种原因 这些规则没有在 Apache Flink 中使用
apacheflink
sqlexecutionplan
flinksql
在 Apple M1 芯片上运行 Apache Flink 1.12 作业
我刚刚尝试运行Apache Flink 的基本示例 https ci apache org projects flink flink docs release 1 12 try flink local installation html在配
Java
apacheflink
尽管集群已启动,Flink localhost 仪表板仍无法工作
我已经下载了Flink 1 5 0并运行启动集群脚本 集群似乎已成功启动 bin start cluster sh Starting cluster Starting standalonesession daemon on host LAP
Windows
localhost
apacheflink
Flink 作业在集群节点上的分布
我们有 4 个作业 运行在 3 个节点上 每个节点有 4 个槽位 在 Flink 1 3 2 上 作业均匀分布在每个节点上 升级到 flink 1 5 后 每个作业都在单个节点上运行 如果没有剩余插槽 则可以转移到另一个节点 有没有办法恢复
apacheflink
flinkstreaming
从代码中取消 Apache Flink 作业
我现在的情况是想从代码中停止 取消 flink 作业 这是在我的集成测试中 我正在向我的 flink 作业提交任务并检查结果 当作业异步运行时 即使测试失败 通过 它也不会停止 我想在考试结束后在车站工作 我尝试了一些事情 我在下面列出 获
akka
apacheflink
我的 Pyflink 设置有什么问题导致 Python UDF 抛出 py4j 异常?
我正在使用文档中的 flink python datastream 教程 https ci apache org projects flink flink docs master docs dev python datastream tut
apacheflink
pyflink
我可以在 RichAsyncFunction 中编写同步代码吗
当我需要使用 I O 查询 DB 调用第三个 API 时 我可以使用 RichAsyncFunction 但我需要通过 GG Sheet API 与 Google Sheet 进行交互 https developers google com
apacheflink
flinkstreaming
Apache Flink(如何唯一标记作业)
是否可以使用唯一的名称来标记作业 以便我可以在以后停止它们 我真的不想 grep 并保留作业 ID 简而言之 我想在部署过程中停止一项作业并部署新作业 您可以在启动作业时为其命名execute name String 打电话 例如 val
apacheflink
flinkstreaming
Flink - 多源集成测试
我有一份 Flink 工作 正在使用此处描述的方法进行集成测试 https ci apache org projects flink flink docs stable dev stream testing html integration
Java
apacheflink
flinkstreaming
Flink:是否有另一种方法来计算平均值和状态变量而不是使用 RichAggregateFunction?
我不确定必须使用哪个流 Flink 转换来计算某个流的平均值并在 5 秒的窗口内更新状态 假设它是我的状态的整数数组 如果我使用RichFlatMapFunction我可以计算平均值并更新我的数组状态 但是 我必须打电话 streamSou
Java
apacheflink
如何使用 Flink SQL 按事件时间对流进行排序
我有一个故障DataStream
apacheflink
flinkstreaming
flinksql
任务管理器丢失/被杀死[关闭]
Closed 这个问题需要细节或清晰度 help closed questions 目前不接受答案 当我尝试在独立集群中运行 flink 作业时 出现以下错误 java lang Exception TaskManager was lost
apacheflink
flinkstreaming
kafka flink timestamp 事件时间和水印
我正在阅读 使用 Apache Flink 进行流处理 一书 其中指出 从版本 0 10 0 开始 Kafka 支持消息时间戳 当从 Kafka 0 10 或更高版本读取时 如果应用程序在事件时间模式下运行 消费者将自动提取消息时间戳作为事
apacheflink
flinkstreaming
«
1
2
3
4
5
6
7
8
»