是否可以完全编程创建一个“Spark MiniCluster”来从Scala程序中运行小型Spark应用程序?我不想启动Spark shell,而是在我的程序的Main中完全制作一个“MiniCluster”。Spark MiniCluster
1
A
回答
6
您可以创建应用程序并使用本地主在独立模式下启动星火:
import org.apache.spark.SparkContext
import org.apache.spark.SparkContext._
import org.apache.spark.SparkConf
object LocalApp {
def main(args: Array[String]) {
val sc = new SparkContext("local[*]", "local-app", new SparkConf())
// Do whatever you need
sc.stop()
}
}
你可以做的正是与任何支持的语言同样的事情。
+0
谢谢!这正是我所期待的。 – Frank
+0
你也可以在python中用类似的API调用来做类似的事情 - 不需要在scala,java或python中实例化一个shell会话。 – ThatDataGuy
相关问题
- 1. HBaseTestingUtility与MiniCluster一起工作吗?
- 2. 启动hadoop 2.2.0 minicluster时出错:java.lang.NoClassDefFoundError:org/apache/hadoop/yarn/server/MiniYARNCluster
- 3. Spark-Cassandra VS Spark-Elasticsearch
- 4. DataBinding Spark RadioButtonGroup Spark SparkButton值
- 5. Spark没有Spark SQL的HCatalog
- 6. sbt不会组装Spark Spark
- 7. Spark - 通过属性spark-submit
- 8. Spark Scala 2.11.8 Spark HbaseConnector错误
- 9. Apache Spark vs Apache Spark 2
- 10. Spark数据框:它是否会触发sql或spark spark?
- 11. Spark GraphX spark-shell vs spark-submit性能差异
- 12. Spark java.lang.VerifyError
- 13. Spark java.lang.NoSuchMethodError
- 14. Spark SQL:NoSuchMethodError:SQLContext.load
- 15. Spark - ClassNotFoundException:org.eclipse.jetty.server.bio.SocketConnector
- 16. Spark OutOfMemoryError
- 17. Spark MapPartitions
- 18. Spark CollectAsMap
- 19. 使用Apache Spark/Spark SQL加入文件
- 20. Spark Launcher无法触发Spark Job?
- 21. Apache Spark:从Spark Cluster读取RDD
- 22. Spark Spark待处理批处理
- 23. Spark Spark RDD中的字符串替换
- 24. Apache Spark 2.0.2启动spark-jobserver时出错
- 25. Spark MLlib和Spark ML中的PCA
- 26. 将Spark表加载到Spark上 -
- 27. 将spark-jobserver部署到BlueMix Spark节点
- 28. spark-submit:打开'递归'(Spark版本2.0.2)
- 29. Spark Streaming + Hbase:NoClassDefFoundError:org/apache/hadoop/hbase/spark/HBaseContext
- 30. spark-java包如何从Scala使用Spark?
那么,不是Spark独立群集? –
不 - 我在命令行上根本不会做任何事情。只需编译我的Scala程序并在IDEA中运行它。就好像我甚至没有壳。 – Frank
IDEA编译你的应用程序,并在后台运行一个shell进程,尽管 –