kafka本地状态存储/变更日志中的保留时间

2024-01-09

我使用 Kafka 和 Kafka Streams 作为 Spring Cloud Stream 的一部分。我的 Kafka Streams 应用程序中流动的数据正在按特定时间窗口进行聚合和具体化:

Materialized<String, ErrorScore, WindowStore<Bytes, byte[]>> oneHour = Materialized.as("one-hour-store");
    oneHour.withLoggingEnabled(topicConfig);
    events
            .map(getStringSensorMeasurementKeyValueKeyValueMapper())
            .groupByKey()
            .windowedBy(TimeWindows.of(oneHourStore.getTimeUnit()))
            .reduce((aggValue, newValue) -> getMaxErrorScore(aggValue, newValue),
                    (oneHour));

按照设计,正在具体化的信息也由变更日志主题支持。

我们的应用程序还有一个休息端点,它将像这样查询状态存储:

 ReadOnlyWindowStore<String, Double> windowStore =  queryableStoreRegistry.getQueryableStoreType("one-hour-store", QueryableStoreTypes.windowStore());
 WindowStoreIterator<ErrorScore> iter = windowStore.fetch(key, from, to);

查看创建的变更日志主题的设置,内容如下:

min.insync.replicas 1
cleanup.policy delete
retention.ms 5259600000
retention.bytes -1

我假设当地国营商店至少会将信息保留 61 天(约 2 个月)。然而,商店中似乎只保留了最后一天的数据。

是什么导致数据这么快就被删除了?

更新解决方案Kafka Streams 2.0.1版本不包含Materialized.withRetention方法。对于这个特定版本,我可以使用以下代码设置状态存储的保留时间,这解决了我的问题:

TimeWindows timeWindows = TimeWindows.of(windowSizeMs);
    timeWindows.until(retentionMs);

使我的代码写成:

...

.groupByKey()
        .windowedBy(timeWindows)
        .reduce((aggValue, newValue) -> getMaxErrorScore(aggValue, newValue),
                (oneHour));
...

对于有窗口的KTable有本地保留时间和changlog 保留时间。您可以通过以下方式设置本地商店保留时间Materialized.withRetentionTime(...)-- 默认值为 24 小时。

对于较旧的 Kafka 版本,本地存储保留时间通过设置Windows#until().

如果创建新应用程序,则会创建更改日志主题,其保留时间与本地存储保留时间相同。但是,如果您手动增加日志保留时间,这不会影响您的商店保留时间,但您需要相应地更新代码。当变更日志主题已经存在时也是如此:如果您更改本地存储保留时间,变更日志主题配置不会自动更新。

还有一个 Jira 可以用于此目的:https://issues.apache.org/jira/browse/KAFKA-7591 https://issues.apache.org/jira/browse/KAFKA-7591

本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

kafka本地状态存储/变更日志中的保留时间 的相关文章

随机推荐