2017-04-19 45 views
0

我在HDInsight上使用Livy将作业提交给Spark群集。我将我的代码写入并编译到JAR中,但它有多个依赖项,其中一些依赖于自定义存储库。如何向Livy提交依赖的JAR?

我该如何让Livy自己解决这些依赖关系?我不想提交一个胖的jar包,因为依赖关系总是在变化,我不喜欢涉及到的ops努力。

回答

0

您可能想要通过spark.jars.ivy作为参数。请参阅https://spark.apache.org/docs/latest/configuration.html

您可以通过任何支持李维在/批次POST体:https://github.com/cloudera/livy#post-batches

+0

请问这种解决依赖关系?一世。即如果我提到com.X.Y 0.3,它是否也会添加库中pom.xml中提到的com.X.Y的所有依赖项? – SiddharthaRT

+0

它的行为与火花行为完全相同。尝试一个spark-submit工作来确定需要传递哪些参数,然后使用Livy进行复制。 – aggFTW