如何在不退出的情况下终止本地OSX机器上的Spark shell中的正在运行的进程?Spark:如何在不退出shell的情况下杀死正在运行的进程?
例如,如果我只是在RDD上做一个简单的.count()
,它可能需要一段时间,有时我想杀死它。
但是,如果我做了Ctrl C
那么它会杀死整个shell。
有没有办法杀死进程而不是shell?
如何在不退出的情况下终止本地OSX机器上的Spark shell中的正在运行的进程?Spark:如何在不退出shell的情况下杀死正在运行的进程?
例如,如果我只是在RDD上做一个简单的.count()
,它可能需要一段时间,有时我想杀死它。
但是,如果我做了Ctrl C
那么它会杀死整个shell。
有没有办法杀死进程而不是shell?
从火花文档摘自:
./bin/spark-class org.apache.spark.deploy.Client kill <master url> <driver ID>
链接:http://spark.apache.org/docs/latest/spark-standalone.html
然后,如果你想杀死反复失败的应用程序,你可以通过这样做
您可以使用主Web界面杀死或可视化作业。 你还会发现其他的东西,如日志文件或你的集群工作图表...
你使用哪个集群?纱还是独立? –
截至2016年8月1日,我确实控制^ C,它只是杀死了命令,而没有杀死shell。但是,我处于现实世界的群集中。 – gsamaras
在本地火花外壳上,我无法通过按Ctrl-C来停止流式传输作业。我不得不关闭终端窗口! – arun