2015-03-03 58 views
4

我很努力的火花添加到我的Python路径:无法火花添加到PYTHONPATH

(myenv)[email protected] /home/me$ set SPARK_HOME="/home/me/spark-1.2.1-bin-hadoop2.4" 
(myenv)[email protected] /home/me$ set PYTHONPATH=$PYTHONPATH:$SPARK_HOME:$SPARK_HOME/python:$SPARK_HOME/python/build:$SPARK_HOME/bin 

(myenv)[email protected] /home/me$ python -c 'import sys; print(sys.path)' 
['', '/home/me/.virtualenvs/default/lib/python2.7', '/home/me/.virtualenvs/default/lib/python2.7/plat-x86_64-linux-gnu', '/home/me/.virtualenvs/default/lib/python2.7/lib-tk', '/home/me/.virtualenvs/default/lib/python2.7/lib-old', '/home/me/.virtualenvs/default/lib/python2.7/lib-dynload', '/usr/lib/python2.7', '/usr/lib/python2.7/plat-x86_64-linux-gnu', '/usr/lib/python2.7/lib-tk', '/home/me/.virtualenvs/default/local/lib/python2.7/site-packages', '/home/me/.virtualenvs/default/lib/python2.7/site-packages'] 

(myenv)[email protected] /home/me$ python -c 'import pyspark' 
Traceback (most recent call last): 
    File "<string>", line 1, in <module> 
ImportError: No module named pyspark 
+0

的[如何安装pyspark在独立脚本中使用?(可能的复制http://stackoverflow.com/questions/25205264/how-添加下面的命令do-i-install-pyspark-for-use-in-standalone-scripts) – ksindi 2016-12-31 15:18:04

回答

0

我想你混淆了PYTHONPATHsys.path。但是你确定你需要修改PYTHONPATH如果你有pyspark正确安装?

编辑:

我还没有使用pyspark,但这会有帮助吗? importing pyspark in python shell

+0

pyspark已安装。我可以在shell模式下运行它,但我无法使用IDE调试代码 - 我得到了ImportError。 – thecheech 2015-03-03 10:55:49

+0

@cheeech这是因为你没有在你的IDE中设置正确的Python解释器。显然你使用的是env,那么你应该把你的virtualenv作为你的项目解释器。 – laike9m 2015-03-03 10:57:19

+0

env解释器在IDE中设置。这个问题在IDE外部(我在命令行上运行python命令)。 – thecheech 2015-03-03 10:59:42

5

我有同样的问题,但this帮助。

就在你的.bashrc

export SPARK_HOME=/path/to/your/spark-1.4.1-bin-hadoop2.6 
export PYTHONPATH=$SPARK_HOME/python:$SPARK_HOME/python/build:$PYTHONPATH 
export PYTHONPATH=$SPARK_HOME/python/lib/py4j-0.8.2.1-src.zip:$PYTHONPATH 
+0

https://stackoverflow.com/questions/40808064/pyspark-append-executor-environment-variable – mathtick 2018-02-26 19:05:17