1
我已经使用Homebrew安装了Spark和Scala。我可以运行Spark-shell。我还通过将其放置在usr/local/share
(不确定这是否是正确的方式)并在其中放置符号链接来安装Spark-IDE。现在我想运行Eclipse中用Scala编写的Spark应用程序;我怎么做?在Mac上运行Scala Spark应用程序
我已经使用Homebrew安装了Spark和Scala。我可以运行Spark-shell。我还通过将其放置在usr/local/share
(不确定这是否是正确的方式)并在其中放置符号链接来安装Spark-IDE。现在我想运行Eclipse中用Scala编写的Spark应用程序;我怎么做?在Mac上运行Scala Spark应用程序
的常用方法如何创建和运行Apache星火任务是:
1,创建包 - 通常jar文件 - 你可以使用Maven例如打包。
2,火花提交启动和提交作业
./bin/spark-submit --class MainClass.class --master local[2] <application-jar>
,其中
<application-jar>
是您的火花的工作包的jar文件
MainClass.class
入口点作业
master
- 阿帕奇火花的作业通常会提交给集群,但是出于测试目的,你可以使用本地为主。这里的数字定义了作业执行的线程数。
HADOOP_HOME
环境变量 - 在这种情况下,只需下载hadoop并设置为$HADOOP_HOME
)
如何让Eclipse看到Spark库?如何将Spark库导入到应用程序中? – ogogmad
@jkabrg Eclipse只是IDE,它取决于你如何将你的依赖包含在项目中 - 例如。你可以使用maven或一些类似的工具。 – VladoDemcak
我想对第1步感兴趣。 – ogogmad