我有一个正在运行的Spark应用程序,该应用程序占据了所有我的其他应用程序都不会分配任何资源的核心。
我做了一些快速研究,有人建议使用YARN kill或/ bin / spark-class终止命令。但是,我正在使用CDH版本,并且/ bin / spark-class甚至根本不存在,YARN kill应用程序也不起作用。
谁能和我一起吗?
最佳答案
yarn application -kill application_1428487296152_25597
关于apache-spark - Spark Kill正在运行的应用程序,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/29565716/