2
我写了一个使用sbt构建的Spark应用程序。它在本地很好地工作,但是在集群上部署后,它抱怨我写的类在fat jar中很清楚(使用jar tvf进行检查)。以下是我的项目结构。 XXX对象是火花抱怨NoClassDefFoundError:在部署在火花独立群集上后无法初始化XXX类
src
`-- main
`-- scala
|-- packageName
| `-- XXX object
`-- mainMethodEntryObject
我提交了一个命令:
$SPARK_HOME/bin/spark-submit \
--class mainMethodEntryObject \
--master REST_URL\
--deploy-mode cluster \
hdfs:///FAT_JAR_PRODUCED_BY_SBT_ASSEMBLY
特定错误消息:
java.lang.NoClassDefFoundError: Could not initialize class XXX
你可以添加用于启动作业的命令吗?当你运行'jar tvf'它返回什么响应? –
@techsquids当然,请参阅上面的 –
'jar tvf'它是否列出jar根目录下的包名? –