我是新来点火并在hadoop 2.4.1中使用spark-1.2.0。我建立了主站和四个从站节点。但是我的两个节点没有启动。 我已经在spark-1.2.0/conf /目录下的slaves
文件中定义了节点的IP地址。无法在Spark-1.2.0上部署工作人员
但是当我尝试运行./sbin/start-all.sh
错误如下:
failed to launch org.apache.spark.deploy.worker.Worker
could not find or load main class org.apache.spark.deploy.worker.Worker
这是发生了两个节点。其他两个工作正常。
我也在master和slave上设置了spark-env.sh
。主人也有无密码的SSH连接到奴隶。
我也试着做./bin/spark-class org.apache.spark.deploy.worker.Worker spark://IP:PORT
它给出了相同的错误了。有人可以帮我弄这个吗。我在哪里做错了?