2017-02-03 52 views
-2

您好我已经实现了我的平均字数在Java中的Cloudera VM 4.2.1 P和我已经转换成JAR文件,运行命令:Hadoop的罐子averagewordlength.jar stubs.AvgWordLength莎士比亚wordleng的Hadoop Cloudera的在VMware的路径

下一页:我已经正确运行莎士比亚,无法运行我的文件(我创建了:newfile)。它抛出一个异常:在线程

异常 “主” org.apache.hadoop.mapreduce.lib.input.InvalidInputException:输入 路径不存在:HDFS://0.0.0.0:8020 /用户/培训/新文件在 org.apache.hadoop.mapreduce.lib.input.FileInputFormat.listStatus(FileInputFormat.java:231) at org.apache.hadoop.mapreduce.lib.input.FileInputFormat.getSplits(FileInputFormat。的java:248) 在 org.apache.hadoop.mapred.JobClient.writeNewSplits(JobClient.java:1064) 在 org.apache.hadoop.mapred.JobClient.writeSplits(JobClient.java:1081) at org.apache.hadoop.mapred.JobClient.access $ 600(JobClient.java:174) at org.apache.hadoop.mapred.JobClient $ 2.run(JobClient.java:993)at org.apache.hadoop。 mapred.JobClient $ 2.run(JobClient.java:946)at java.security.AccessController.doPrivileged(Native Method)at javax.security.auth.Subject.doAs(Subject.java:396)at org.apache。 hadoop.security.UserGroupInformation.doAs在 org.apache.hadoop.mapred.JobClient.submitJobInternal(JobClient.java)(UserGroupInformation.java:1408)

请指导在哪条路径来粘贴的newfile用于检查我的解决方案

回答

0

似乎你的Hadoop配置不正确。

hdfs://0.0.0.0是不是一个有效的地址

Cloudera的VM 4.2.1?尝试下载更新CDH 5.x的VM

0

我的命令得到了它

Hadoop的FS -put了localPath