我正在使用AWS上的spark 2.1.0运行emr-5.3.1。AWS EMR上的Spark 2.1.0的AWS-SDK对齐错误?
当我提交的火花任务与我的JAR(FAT JAR),我发现了以下错误:
user class threw exception: java.lang.NoSuchMethodError: com.amazonaws.auth.DefaultAWSCredentialsProviderChain.getInstance()Lcom/amazonaws/auth/DefaultAWSCredentialsProviderChain;
我只能猜测那是因为我使用不同的AWS-SDK构建我的罐子版本,然后安装在Spark 2.1.0上
- 什么是安装在EMR的Spark 2.1.0上的正确的AWS_SDK版本?
- 有没有办法强制我提交的spark任务与我的罐子一起运行?
(1)'sudo find/-name * aws-sdk * jar'没有返回任何内容,为什么会这样呢? (2)我不确定你在哪里提供这个POM文件,是spark-submit的一部分吗?汇编? –
对不起,我刚刚注意到你的问题... (1)我的坏..它应该是\ * aws-java-sdk \ * jar (2)pom文件是在汇编中。有些使用sbt而应该是相似的。 @RoeeGavirel –