从Windows复制到远程HDFS的正确语法是什么? 我试图将文件从我的本地机器复制到使用RStudio远程Hadoop集群 rxHadoopCopyFromLocal("C:/path/to/file.csv", "/target/on/hdfs/")
这将引发 copyFromLocal '/path/to/file.csv': no such file or directory`
注
提交hdinsight星火工作,当我使用的IntelliJ IDEA社区提交hdinsight星火工作 错误: Failed to submit application to spark cluster.
Exception : Forbidden. Attached Azure DataLake Store is not supported in Automated login model.
我有一个HDInsight集群正在运行3.6,它根据docs只捆绑了Spark 2.1.0。 显然李维一直没有整合这个版本并试图卷曲李维(像火花的作业Azure的教程文档建议)导致HTTP 502 BAD GATEWAY响应 - 所以我试图手动提交火花的工作。 然而,当我ssh到主节点,并使用我立刻注意到包装脚本打印如下: SPARK_MAJOR_VERSION is set to 1, us