0
当我尝试使用spark-submit使用参数--packages定义提交spark工作时,我期望spark首先搜索工件的本地repo,并在存在的情况下使用它们。火花提交失败,但未连接到互联网
我观察到每次spark都试图从internet上获取工件,并且如果没有连接失败。
我可以强制spark使用本地缓存吗?
例如:
spark-submit --master yarn --deploy-mode cluster --packages org.apache.spark:spark-streaming-kafka-0-10_2.11:2.1.0,org.apache.spark:spark-streaming_2.11:2.1.1,org.apache.spark:spark-sql_2.11:2.1.1 my-assembly-1.1.0.jar /usr/local/path/config.properties