我知道有多种方法可以监视 Spark 应用程序的存储内存利用率,但有人知道监视执行内存利用率的方法吗?我也在寻找一种监视“用户内存”的方法,即不用于执行也不用于存储的内存。查看 Spark 的内存管理文档https://spark.apache.org/docs/latest/tuning.html https://spark.apache.org/docs/latest/tuning.html未分配给M或spark.memory.fraction的内存。
None
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)