有没有人尝试过write log4j日志档案直接地to Hadoop分布式文件系统 ?
如果是,请回复如何实现这一点。
我想我必须为它创建一个Appender。
是这样吗?
我的需要是以特定的时间间隔将日志写入文件,并在稍后阶段查询该数据。
我建议使用阿帕奇水槽为了这个任务。有Log4j 的 Flume 附加器。这样,您将日志发送到 Flume,然后它写入 HDFS。这种方法的好处是 Flume 成为与 HDFS 的单点通信。 Flume 可以轻松添加新的数据源,而无需一次又一次编写大量与 HDFS 交互的代码。
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)