2016-02-25 109 views
0

我在我的Fedora虚拟机中(在VMware工作站中)运行Hadoop-2.7.1 HDFS的伪模式。我可以使用hadoop hdfs shell命令在Fedora上传/下载本地文件。Java客户端如何上传/下载文件到/从远程HDFS服务器?

但是我怎样才能写一个简单的java类来从我的Windows主机上传/下载文件?

我发现像一些示例代码:

FileSystem fs = FileSystem.get(new Configure()); 
Path local_file = new Path("testfile.txt"); 
Path remote_path = new Path("/"); 
fs.copyFromLocal(local_file, remote_path); 

但我发现在Maven仓库Hadoop的核心 - 1.2.jar,但它太旧版本2.7.1。 我不知道用什么jar包来导入HDFS java类。

回答

1

试试这个例子using-filesystem-api-to-read-and-write-data-to-hdfs代码如下Maven配置:

<properties> 
    <hadoop.version>2.7.0</hadoop.version> 
    <hadoop.core>1.2.1</hadoop.core> 
</properties> 

<dependencies> 
    <dependency> 
     <groupId>org.apache.hadoop</groupId> 
     <artifactId>hadoop-core</artifactId> 
     <version>${hadoop.core}</version> 
    </dependency> 
    <dependency> 
     <groupId>org.apache.hadoop</groupId> 
     <artifactId>hadoop-common</artifactId> 
     <version>${hadoop.version}</version> 
    </dependency> 
</dependencies> 
+0

非常感谢,我会努力。 – linrongbin

相关问题