2016-12-02 25 views
1

是否可以完全编程创建一个“Spark MiniCluster”来从Scala程序中运行小型Spark应用程序?我不想启动Spark shell,而是在我的程序的Main中完全制作一个“MiniCluster”。Spark MiniCluster

+0

那么,不是Spark独立群集? –

+0

不 - 我在命令行上根本不会做任何事情。只需编译我的Scala程序并在IDEA中运行它。就好像我甚至没有壳。 – Frank

+0

IDEA编译你的应用程序,并在后台运行一个shell进程,尽管 –

回答

6

您可以创建应用程序并使用本地主在独立模式下启动星火:

import org.apache.spark.SparkContext 
import org.apache.spark.SparkContext._ 
import org.apache.spark.SparkConf 

object LocalApp { 
    def main(args: Array[String]) { 
    val sc = new SparkContext("local[*]", "local-app", new SparkConf()) 
    // Do whatever you need 
    sc.stop() 
    } 
} 

你可以做的正是与任何支持的语言同样的事情。

+0

谢谢!这正是我所期待的。 – Frank

+0

你也可以在python中用类似的API调用来做类似的事情 - 不需要在scala,java或python中实例化一个shell会话。 – ThatDataGuy

相关问题