Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
Spring Kafka MessageListenerContainer
我看到 spring Kafka 代码 我有一些疑问 如果我们使用 1 个 kafkaListener 和 2 个主题 那么 spring Kafka 将创建一个 MessageListenerContainer 如果我为每个主题使用单独的
ApacheKafka
kafkaconsumerapi
springKafka
如何在 Spring Kafka 中以编程方式设置 Jsonserializer Type Value 方法
所以我无法仅使用 yaml 为 JsonSerializer 配置 JavaType 方法 还不确定原因 但与此同时 我如何以编程方式设置它 我在文档中看到了它的代码 但是该代码到底需要在哪里运行 Spring Kafka JsonDese
Java
springboot
ApacheKafka
springKafka
动态创建消费者spring kafka
我正在创建一个与另一个服务通信的服务 以便识别要收听的 kafka 主题 kafka主题可能有不同的键和值类型 因此 我想为每个配置 主题 键类型 值类型 动态创建不同的 kafka 消费者 其中配置仅在运行时已知 然而在 spring k
ApacheKafka
kafkaconsumerapi
springKafka
由于 jaas.conf 不正确而导致 Kafka TopicAuthorizationException
我指的是JAAS登录配置文件 https docs oracle com javase 7 docs technotes guides security jgss tutorials LoginConfigFile html 它讨论了两种指
authentication
ApacheKafka
jaas
如何使用 haproxy 负载均衡器 Kafka Bootstrap?
我有一个 kafka 集群 由 3 台在 AWS 上运行的机器组成 卡夫卡1到卡夫卡3 我正在使用新型卡夫卡消费者 gt 0 8 我知道kafka客户端连接到其中一台kafka服务器 获取服务器元数据 然后直接连接到代理 我想确保在代理发生
ApacheKafka
loadbalancing
HAProxy
highavailability
具有替代方案的重载方法值表
我有编译器抱怨的以下代码 val state KTable String String builder table BARY PATH Materialized as PATH STORE 错误信息 error home developer
Java
scala
ApacheKafka
apachekafkastreams
Kafka 一遍又一遍地重放消息 - 心跳会话已过期 - 标记协调器已死亡
使用 python kafka api 从只有少量消息的主题中读取消息 Kafka 不断地一遍又一遍地重放队列中的消息 它从我的主题接收一条消息 返回每条消息内容 然后抛出ERROR Heartbeat session expired ma
python
ApacheKafka
kafkaconsumerapi
KafkaStreams 同一应用程序中的多个流
我正在尝试根据 KafkaStreams 的惯例和合理性做出实用的设计决策 假设我想将两个不同的事件放入其中KTables 我有一个制作人将这些消息发送给KStream那就是听那个话题 据我所知 我不能对消息使用条件转发KafkaStrea
ApacheKafka
apachekafkastreams
如何处理Kafka流中的不同时区?
因此 我正在评估 Kafka Streams 及其功能 看看它是否适合我的用例 因为我需要每 15 分钟 每小时 每天聚合传感器数据 并发现它由于其窗口功能而很有用 因为我可以通过应用创建窗口windowedBy on KGroupedSt
Java
ApacheKafka
apachekafkastreams
带有 kafka-avro-console-consumer 的未知魔法字节
我一直在尝试将 Confluence 中的 kafka avro console consumer 连接到我们的旧版 Kafka 集群 该集群是在没有 Confluence Schema Registry 的情况下部署的 我使用以下属性显式
ApacheKafka
Avro
confluentplatform
confluentschemaregistry
Spark:将 bytearray 转换为 bigint
尝试使用 pyspark 和 Spark sql 将 kafka 键 二进制 字节数组 转换为 long bigint 会导致数据类型不匹配 无法将二进制转换为 bigint 环境详情 Python 3 6 8 Anaconda custo
apachespark
PySpark
ApacheKafka
apachesparksql
Kafka 消费者通过 JMX 滞后
我正在尝试监控 Kafka 0 10 中消费者组的滞后情况 我们的消费者在 Kafka 而不是 ZooKeper 中跟踪他们的偏移量 这意味着我可以使用以下方式获取数据 bin kafka consumer groups sh bootst
ApacheKafka
jmx
Kafka Streams - 减少大型状态存储的内存占用
我有一个拓扑 见下文 可以读取一个非常大的主题 每天超过十亿条消息 这个 Kafka Streams 应用程序的内存使用量相当高 我正在寻找一些关于如何减少状态存储占用空间的建议 更多详细信息如下 Note 我并不是想逃避国有商店 我只是认
ApacheKafka
apachekafkastreams
使用 Kafka Streams 在输出中设置时间戳无法进行转换
假设我们有一个变压器 用 Scala 编写 new Transformer String V String V var context ProcessorContext override def init context Processor
scala
ApacheKafka
apachekafkastreams
Kafka的消息键有什么特别的地方吗?
我没有看到任何提及消息键 org apache kafka clients producer ProducerRecord key 除了它们可以用于主题分区 我可以自由地将我喜欢的任何数据放入密钥中 还是有一些我应该遵守的特殊语义 该密钥似
ApacheKafka
kafka启动失败(版本0.8.0 beta1)
我正在尝试在独立模式 在ec2上 上使用zookeeper版本 3 3 6 启动kafka服务 所以我运行 1 sbt update 2 sbt package 3 sbt assembly package dependency 然后启动z
ApacheKafka
无法向 Kafka 发送大消息
我想从生产者向 Kafka 发送一条大消息 因此我更改了以下属性 代理 服务器 属性 replica fetch max bytes 317344026 message max bytes 317344026 max message byt
python27
ApacheKafka
max
kafkaproducerapi
kafkapython
无法对 @KafkaListener 带注释的方法进行单元测试
我正在尝试在 Spring 中对 kafka 消费者类进行单元测试 我想知道如果 kafka 消息发送到它的主题 则侦听器方法被正确调用 我的消费者类注释如下 KafkaListener topics kafka topics myTopi
Spring
unittesting
ApacheKafka
springKafka
即使没有消费者,消费者群体仍陷入“再平衡”
我正在使用kafka版本2 4 1 最近从2 2 0升级到2 4 1 并注意到一个奇怪的问题 即使应用程序 kafka Streams 已关闭 没有正在运行的应用程序 但消费者组命令返回状态为重新平衡 我们的应用程序作为 kubernete
ApacheKafka
apachekafkastreams
如何评估kafka流应用程序的消耗时间
我有 1 0 0 kafka 流应用程序 有两个类 如下所示 class FilterByPolicyStreamsApp 和 class FilterByPolicyTransformerSupplier 在我的应用程序中 我读取事件 执
ApacheKafka
apachekafkastreams
1
2
3
4
5
6
...32
»