我正在尝试设置 Flume-NG 从一组服务器(主要运行 Tomcat 实例和 Apache Httpd)收集各种日志,并将它们转储到 5 节点 Hadoop 集群上的 HDFS 中。设置如下所示:
每个应用程序服务器将相关日志跟踪到一个执行源(每种日志类型一个:java、httpd、syslog),该源通过 FileChannel 将它们输出到 Avro 接收器。在每台服务器上,不同的源、通道和接收器由一个代理管理。事件由驻留在 Hadoop 集群(还托管 secondaryNameNode 和 Jobtracker 的节点)上的 AvroSource 拾取。对于每种日志类型,都有一个 AvroSource 监听不同的端口。事件通过 FileChannel 进入 HDFS Sink,HDFS Sink 使用 FlumeEventAvro EventSerializer 和 Snappy 压缩来保存事件。
问题:Hadoop 节点上管理 HDFS 接收器(同样,每种日志类型一个)的代理在几个小时后失败,因为我们没有更改 JVM 的堆大小。从那时起,大量事件被收集到该节点上的 FileChannel 中,之后也在应用程序服务器上的 FileChannel 上收集,因为 Hadoop 节点上的 FileChannel 已达到其最大容量。当我修复问题时,我无法让 Hadoop 节点上的代理足够快地处理积压的工作,从而使其恢复正常运行。 FileChannel 在接收事件之前保存事件的 tmp 目录的大小一直在增长。另外,HDFS 写入速度似乎非常慢。
有没有办法强制 Flume 在摄取新事件之前先处理积压的事件?以下配置是最佳配置吗?可能相关:写入 HDFS 的文件非常小,大约 1 - 3 MB 左右。对于 64MB 的 HDFS 默认块大小以及未来的 MR 操作来说,这当然不是最佳选择。我应该使用什么设置来收集对于 HDFS 块大小足够大的文件中的事件?
我感觉 Hadoop 节点上的配置不正确,我怀疑 BatchSize、RollCount 和相关参数的值已关闭,但我不确定最佳值应该是什么。
应用程序服务器上的示例配置:
agent.sources=syslogtail httpdtail javatail
agent.channels=tmpfile-syslog tmpfile-httpd tmpfile-java
agent.sinks=avrosink-syslog avrosink-httpd avrosink-java
agent.sources.syslogtail.type=exec
agent.sources.syslogtail.command=tail -F /var/log/messages
agent.sources.syslogtail.interceptors=ts
agent.sources.syslogtail.interceptors.ts.type=timestamp
agent.sources.syslogtail.channels=tmpfile-syslog
agent.sources.syslogtail.batchSize=1
...
agent.channels.tmpfile-syslog.type=file
agent.channels.tmpfile-syslog.checkpointDir=/tmp/flume/syslog/checkpoint
agent.channels.tmpfile-syslog.dataDirs=/tmp/flume/syslog/data
...
agent.sinks.avrosink-syslog.type=avro
agent.sinks.avrosink-syslog.channel=tmpfile-syslog
agent.sinks.avrosink-syslog.hostname=somehost
agent.sinks.avrosink-syslog.port=XXXXX
agent.sinks.avrosink-syslog.batch-size=1
Hadoop 节点上的示例配置
agent.sources=avrosource-httpd avrosource-syslog avrosource-java
agent.channels=tmpfile-httpd tmpfile-syslog tmpfile-java
agent.sinks=hdfssink-httpd hdfssink-syslog hdfssink-java
agent.sources.avrosource-java.type=avro
agent.sources.avrosource-java.channels=tmpfile-java
agent.sources.avrosource-java.bind=0.0.0.0
agent.sources.avrosource-java.port=XXXXX
...
agent.channels.tmpfile-java.type=file
agent.channels.tmpfile-java.checkpointDir=/tmp/flume/java/checkpoint
agent.channels.tmpfile-java.dataDirs=/tmp/flume/java/data
agent.channels.tmpfile-java.write-timeout=10
agent.channels.tmpfile-java.keepalive=5
agent.channels.tmpfile-java.capacity=2000000
...
agent.sinks.hdfssink-java.type=hdfs
agent.sinks.hdfssink-java.channel=tmpfile-java
agent.sinks.hdfssink-java.hdfs.path=/logs/java/avro/%Y%m%d/%H
agent.sinks.hdfssink-java.hdfs.filePrefix=java-
agent.sinks.hdfssink-java.hdfs.fileType=DataStream
agent.sinks.hdfssink-java.hdfs.rollInterval=300
agent.sinks.hdfssink-java.hdfs.rollSize=0
agent.sinks.hdfssink-java.hdfs.rollCount=40000
agent.sinks.hdfssink-java.hdfs.batchSize=20000
agent.sinks.hdfssink-java.hdfs.txnEventMax=20000
agent.sinks.hdfssink-java.hdfs.threadsPoolSize=100
agent.sinks.hdfssink-java.hdfs.rollTimerPoolSize=10
我在您的配置中看到一些可能导致问题的内容:
您的第一个代理似乎有一个批次大小为 1 的 avro 接收器。您应该将其增加到至少 100 或更多。这是因为第二个代理上的 avro 源将以批量大小为 1 提交到通道。每次提交都会导致 fsync,从而导致文件通道性能较差。执行源上的批处理大小也是 1,导致该通道也很慢。您可以增加批处理大小(或使用假脱机目录源 - 稍后会详细介绍)。
您可以让多个 HDFS 接收器从同一通道读取数据以提高性能。您应该确保每个接收器写入不同的目录或具有不同的“hdfs.filePrefix”,以便多个 HDFS 接收器不会尝试写入相同的文件。
HDFS接收器的批量大小是20000,这是相当高的,并且你的callTimeout是默认的10秒。如果你想保持这么大的批量大小,你应该增加“hdfs.callTimeout”。我建议将批量大小减少到 1000 左右,并设置大约 15-20 秒的超时。 (请注意,在当前批处理大小下,每个文件仅保存 2 个批处理 - 因此减少批处理大小,增加 rollInterval 和 timeOut)
如果您使用 tail -F,我建议尝试新的假脱机目录源。要使用此源,请将日志文件轮换到假脱机目录源处理的目录。该源只会处理不可变的文件,因此您需要将日志文件轮换出来。将 tail -F 与 exec source 一起使用会出现问题,如 Flume 用户指南中所述。
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)