我想在 EMR Spark 集群上设置一系列 Spark 步骤,并在当前步骤花费太长时间时终止当前步骤。但是,当我 ssh 进入主节点并运行 hadoop jobs -list 时,主节点似乎认为没有正在运行的作业。我不想终止集群,因为这样做会迫使我为我正在运行的任何集群购买一整小时的时间。谁能帮我终止 EMR 中的 Spark-Step,而不终止整个集群?
这很容易:
yarn application -kill [application id]
您可以列出正在运行的应用程序
yarn application -list
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)