0
由于各种原因,我在机器A上安装了一个hadoop,在群集B上安装了第二个hadoop,群集C上安装了第三个hadoop。如何使用HDFS shell访问两个或更多远程Hadoop文件系统?
当我设置机器A时,xml文件被设置为我可以使用HDFS shell在机器A上查找HDFS。
我可以重写机器A上的xml文件,以便从机器A调用的HDFS shell在默认情况下会看到不同的HDFS。
但是,我希望能够方便地访问所有文件系统,而无需重置xml文件。
例如:同时在机器A登录,我想将文件从集B复制语法类似于集群C:
hdfs dfs -cp hdfs://nn1.exampleB.com/file1 hdfs://nn2.exampleC.com/file2
目前看来,语法不工作(虽然错误是多种多样的;有时它们是EOF;其他时候是网络超时)。
上述语法应该在没有修改XML配置文件的情况下有效吗?