在独立模式下安装了spark集群,第一个节点上有2个节点,spark主节点正在运行,另一个节点上有spark worker。当我尝试用字计数代码工作节点上运行的火花外壳运行良好,但是当我尝试在主节点上运行的火花外壳它提供了以下的输出:多节点火花集群上的spark-shell无法在远程工作节点上运行sponser execution
WARN scheduler.TaskSchedulerImpl: Initial job has not accepted any resources; check your cluster UI to ensure that workers are registered and have sufficient resources
执行人不会被触发运行作业。即使有工作人员可以提供这样的问题来激发掌握。任何帮助appriciated,谢谢
运行以下命令:./bin/spark-shell --master spark:// mastrIP:7077未指定部署模式 –
spark/conf下的从属文件中的条目是什么? – FaigB