2015-10-15 114 views
21

如何在不退出的情况下终止本地OSX机器上的Spark shell中的正在运行的进程?Spark:如何在不退出shell的情况下杀死正在运行的进程?

例如,如果我只是在RDD上做一个简单的.count(),它可能需要一段时间,有时我想杀死它。

但是,如果我做了Ctrl C那么它会杀死整个shell。

有没有办法杀死进程而不是shell?

+0

你使用哪个集群?纱还是独立? –

+1

截至2016年8月1日,我确实控制^ C,它只是杀死了命令,而没有杀死shell。但是,我处于现实世界的群集中。 – gsamaras

+0

在本地火花外壳上,我无法通过按Ctrl-C来停止流式传输作业。我不得不关闭终端窗口! – arun

回答

4

您可以使用主Web界面杀死或可视化作业。 你还会发现其他的东西,如日志文件或你的集群工作图表...

相关问题