2017-04-26 102 views
3

我希望连接到远程集群并执行Spark进程。 所以,从我读过的,这是在SparkConf中指定的。Scala Spark连接到远程集群

val conf = new SparkConf() 
    .setAppName("MyAppName") 
    .setMaster("spark://my_ip:7077") 

其中my_ip是我的群集的IP地址。 不幸的是,我拒绝了连接。所以,我猜测必须添加一些凭证才能正确连接。我将如何指定凭证?看起来它会用.set(key,value)完成,但是没有关于这方面的线索。

+0

你连接到星火独立集群或纱线进行设置? – jamborta

+0

@jamborta我正在连接纱线 –

+0

尝试为ssh会话创建证书并确保它能正常工作,并检查防火墙是否允许此端口连接 – Pavel

回答

2

有两样东西丢失:

顺便说一句,这会工作,如果你使用​​提交作业,编程它更复杂,实现它,只能用yarn-client模式,这是棘手的设置远程控制。

0
  1. 为了使用火花,你应该在应用程序初始化配置,使用--master yarnspark-submi吨命令或setMaster("yarn")推出纱线的应用。
  2. 如果情况发送从远程主机"spark-submit"命令可用于popuar Java Secure Channel (JSCH)当然环境参数应在集群已经
相关问题