0
我在HDInsight上使用Livy将作业提交给Spark群集。我将我的代码写入并编译到JAR中,但它有多个依赖项,其中一些依赖于自定义存储库。如何向Livy提交依赖的JAR?
我该如何让Livy自己解决这些依赖关系?我不想提交一个胖的jar包,因为依赖关系总是在变化,我不喜欢涉及到的ops努力。
我在HDInsight上使用Livy将作业提交给Spark群集。我将我的代码写入并编译到JAR中,但它有多个依赖项,其中一些依赖于自定义存储库。如何向Livy提交依赖的JAR?
我该如何让Livy自己解决这些依赖关系?我不想提交一个胖的jar包,因为依赖关系总是在变化,我不喜欢涉及到的ops努力。
您可能想要通过spark.jars.ivy
作为参数。请参阅https://spark.apache.org/docs/latest/configuration.html
您可以通过任何支持李维在/批次POST体:https://github.com/cloudera/livy#post-batches
请问这种解决依赖关系?一世。即如果我提到com.X.Y 0.3,它是否也会添加库中pom.xml中提到的com.X.Y的所有依赖项? – SiddharthaRT
它的行为与火花行为完全相同。尝试一个spark-submit工作来确定需要传递哪些参数,然后使用Livy进行复制。 – aggFTW