我们有cloudera 5.2,用户想要充分发挥Spark的潜力(在分布式模式下可以利用HDFS获得数据局部性),该服务已经已安装并在cloudera manager状态(在主页中)中可用,但在单击该服务时,然后单击“实例”时,它只显示历史服务器角色,在其他节点中显示网关服务器角色。从我对Spark的体系结构的理解中可以看出,您有一个主节点和工作节点(与HDFS datanodes一起生活),所以我在cloudera manager中尝试了“添加角色实例”,但只有“网关”角色可用。如何将Sparks工作者节点(或执行者)角色添加到拥有HDFS datanode的主机?或者是不必要的(我认为是因为纱线,纱线负责创建执行者和应用程序主人)? masternode的情况如何?我需要配置什么,以便用户可以在其全分布式模式下使用Spark?如何使用纱线在cloudera上添加Spark worker节点
1
A
回答
1
主角色和辅助角色是Spark Standalone服务的一部分。你可以选择Spark来运行YARN(其中Master和Worker节点不相关)或Spark(Standalone)。
由于您在Cloudera Manager中启动了Spark服务而不是Spark(Standalone),因此Spark已经使用YARN。在Cloudera Manager 5.2及更高版本中,有两个独立的Spark服务(Spark和Spark(Standalone))。除了Spark历史记录服务器角色外,Spark服务还将Spark作为仅具有网关角色的YARN应用程序运行。
如何将Sparks工作节点(或执行器)角色添加到主机,其中 您有HDFS datanodes?
不需要。这些主机上只需要网关角色。
从CM Documentation报价:
在Cloudera的管理器网关的角色照顾客户端配置的传播到集群中的其他主机。因此,请确保将网关角色分配给群集中的主机。如果您没有网关角色,则不会部署客户端配置。
相关问题
- 1. Cloudera Manager纱线和Spark UI不工作
- 2. 纱线簇上的spark scala csv export
- 3. Spark SASL不能在纱线上工作
- 4. Spark Worker节点自动停止
- 5. 将纱线群集配置添加到Spark应用程序
- 6. 在纱线上使用Sails.js
- 7. 我们是否需要在所有数据节点上安装spark worker节点?
- 8. 如果Spark(在YARN上)没有安装在worker节点上,Spark Executors是如何启动的?
- 9. spark java.lang.AbstractMethodError在cloudera上失败
- 10. Spark集群中Worker节点上对象的早期初始化
- 11. 如何使用ObjectContentManager在节点下添加节点?
- 12. 安装纱线'brew link节点'
- 13. 纱线没有得到节点
- 14. Mark Spark Job在纱线UI中失败
- 15. 尝试在Cloudera Manager中添加新节点
- 16. 在Cloudera中添加更多数据节点
- 17. 如何使用XSLT添加父节点
- 18. 如何使用XPATH添加节点
- 19. 如何在不使用Cloudera管理器的情况下在100节点群集上安装Cloudera CDH?
- 20. 如何将DataNode添加到Cloudera hadoop
- 21. 如何从主机名或nodeid到纱线节点标签?
- 22. 如何让纱线安装 - 脱离节点sass工作?
- 23. 如何将非jar文件分发到纱线节点?
- 24. SPARK IN CLOUDERA
- 25. Apache Spark Worker Timeout
- 26. 纱线上的Spark作业的应用程序执行监控
- 27. Spark Hive报告pyspark.sql.utils.AnalysisException:u'Table not found:XXX'在纱线群集上运行时
- 28. 在纱线上的Spark Streaming中的Beam GroupByKey
- 29. 在纱线上运行Spark时没有发现类别
- 30. Spark worker节点广播变量可能吗?