我在 Spark Worker 中运行的 Spark 应用程序将执行程序日志输出到特定文件路径:"/worker_home_directory/app-xxxxxxxx/0/stdout"
I used log4j.properties
将日志从 stderr 重定向到 stdout,但 Kubernetes 似乎仍然无法将这些日志识别为主要 STDOUT 日志。
我的目标是使用kubectl logs <spark_worker_pod>
并直接查看Spark执行器日志。然而,我目前的解决方案似乎不成熟。
如何将日志从/worker_home_directory/app-xxxxxxxx/0/stdout
到 Kubernetes 标准输出?
None
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)