2017-01-04 73 views
3

我试图执行使用PySpark数据转换。PySpark错误:输入路径不存在

我有一个数据(CHANGES.txt)

我能够执行命令的文本文件:

RDDread = sc.textFile("file:///home/test/desktop/CHANGES.txt")

但是当我运行: RDDread.first()

然后我得到的错误:

Traceback (most recent call last): 
    File "<stdin>", line 1, in <module> 
    File "/srv/spark/python/pyspark/rdd.py", line 1328, in first 
    rs = self.take(1) 
    File "/srv/spark/python/pyspark/rdd.py", line 1280, in take 
    totalParts = self.getNumPartitions() 
    File "/srv/spark/python/pyspark/rdd.py", line 356, in getNumPartitions 
    return self._jrdd.partitions().size() 
    File "/srv/spark/python/lib/py4j-0.10.3-src.zip/py4j/java_gateway.py", line 1133, in __call__ 
    File "/srv/spark/python/pyspark/sql/utils.py", line 63, in deco 
    return f(*a, **kw) 
    File "/srv/spark/python/lib/py4j-0.10.3-src.zip/py4j/protocol.py", line 319, in get_return_value 
py4j.protocol.Py4JJavaError: An error occurred while calling o256.partitions. 
: org.apache.hadoop.mapred.InvalidInputException: Input path does not exist: file:/home/test/desktop/CHANGES.txt 
    at org.apache.hadoop.mapred.FileInputFormat.singleThreadedListStatus(FileInputFormat.java:287) 
    at org.apache.hadoop.mapred.FileInputFormat.listStatus(FileInputFormat.java:229) 
    at org.apache.hadoop.mapred.FileInputFormat.getSplits(FileInputFormat.java:315) 
    at org.apache.spark.rdd.HadoopRDD.getPartitions(HadoopRDD.scala:199) 
    at org.apache.spark.rdd.RDD$$anonfun$partitions$2.apply(RDD.scala:248) 
    at org.apache.spark.rdd.RDD$$anonfun$partitions$2.apply(RDD.scala:246) 
    at scala.Option.getOrElse(Option.scala:121) 
    at org.apache.spark.rdd.RDD.partitions(RDD.scala:246) 
    at org.apache.spark.rdd.MapPartitionsRDD.getPartitions(MapPartitionsRDD.scala:35) 
    at org.apache.spark.rdd.RDD$$anonfun$partitions$2.apply(RDD.scala:248) 
    at org.apache.spark.rdd.RDD$$anonfun$partitions$2.apply(RDD.scala:246) 
    at scala.Option.getOrElse(Option.scala:121) 
    at org.apache.spark.rdd.RDD.partitions(RDD.scala:246) 
    at org.apache.spark.api.java.JavaRDDLike$class.partitions(JavaRDDLike.scala:60) 
    at org.apache.spark.api.java.AbstractJavaRDDLike.partitions(JavaRDDLike.scala:45) 
    at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) 
    at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62) 
    at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) 
    at java.lang.reflect.Method.invoke(Method.java:498) 
    at py4j.reflection.MethodInvoker.invoke(MethodInvoker.java:237) 
    at py4j.reflection.ReflectionEngine.invoke(ReflectionEngine.java:357) 
    at py4j.Gateway.invoke(Gateway.java:280) 
    at py4j.commands.AbstractCommand.invokeMethod(AbstractCommand.java:132) 
    at py4j.commands.CallCommand.execute(CallCommand.java:79) 
    at py4j.GatewayConnection.run(GatewayConnection.java:214) 
    at java.lang.Thread.run(Thread.java:745) 

似乎提到文件路径不存在。我该如何解决这个问题。我在我的linux机器上安装了python,Java和spark。

+0

只是检查您的本地系统上存在路径,因为你想从一个本地文件系统 –

+0

@RajatMishra,它存在的路径内阅读。但我仍然得到这个错误。我认为如果它不存在,我不能执行'RDDread = sc.textFile(“file:///home/test/desktop/CHANGES.txt”)'命令的路径 – Techno04335

+0

实际上,没有火花sc.textFile是延迟评估的,即当在那时调用一个动作时RDDread = sc.textFile(“file:///home/test/desktop/CHANGES.txt”)将被执行。因为当你执行RDDread.first时会给你一个错误。 –

回答

3

如果在集群模式下运行,你需要跨同一个共享的文件系统中的所有节点的文件复制。然后火花读取文件,否则你应该使用HDFS

我复制TXT文件到HDFS和火花需要从文件HDFS。

我抄上的所有节点的共享文件系统txt文件,然后引发读取该文件。

两个工作对我来说

+0

这是否意味着我必须将Hadoop HDFS本地下载到我的机器上? – Techno04335

+0

如果您在集群模式下运行,你需要跨同一个共享文件系统的所有节点的文件复制。然后spark会读取其他文件,您应该使用HDFS。 – Raghav

相关问题