我试图在Spark 2.1.0上运行飞艇和python3(3.5)中的pyspark。我已经得到了pyspark外壳并与python3运行,但在翻过到齐柏林连接到同一本地集群提供了:在Spark 2.1.0上使用python3在齐柏林飞艇上使用pyspark
Exception: Python in worker has different version 3.5 than that in driver 2.7, PySpark cannot run with different minor versions
我修改了默认spark-env.sh如下:(略去了未修改线)
SPARK_LOCAL_IP=127.0.0.1
SPARK_MASTER_HOST="localhost"
SPARK_MASTER_WEBUI_PORT=8080
SPARK_MASTER_PORT=7077
SPARK_DAEMON_JAVA_OPTS="-Djava.net.preferIPv4Stack=true"
export PYSPARK_PYTHON=/Library/Frameworks/Python.framework/Versions/3.5/bin/python3
export PYSPARK_DRIVER_PYTHON=/Library/Frameworks/Python.framework/Versions/3.5/bin/ipython
盯着事情./bin/pyspark
和所有的在外壳。
齐柏林配置已飞艇-site.xml中被修改仅移动UI端口远离8080到8666`zeppelin-env.sh”已被修改如下:(仅示出MODS /添加)
export MASTER=spark://127.0.0.1:7077
export SPARK_APP_NAME=my_zeppelin-mf
export PYSPARK_PYTHON=/Library/Frameworks/Python.framework/Versions/3.5/bin/python3
export PYSPARK_DRIVER_PYTHON=/Library/Frameworks/Python.framework/Versions/3.5/bin/ipython
export PYTHONPATH=/Library/Frameworks/Python.framework/Versions/3.5/bin/python3
我试过使用蟒蛇,但蟒蛇3.6目前正在创造Spark的问题。另外,我已经使用了一组上述配置设置的w/o成功组合。
配置中引用的设置zeppelin.pyspark.python
默认为python
,但从文档中不清楚如何/在哪里将其调整为python3。为了帮助消除OSX细节,我也能够在LinuxMint 18.1上复制这个故障。
- OSX上运行本地10.11.6
- Spark是2.1.0彬hadoop2.7
- 齐柏林0.7.0彬所有
所以我一直膛线通过Zeppelin文档和互联网试图找到适当的配置设置让Zeppelin以3.5驱动程序运行。希望我失去了一些明显的东西,但我似乎无法跟踪这一个。希望有人成功地做到了这一点,并可以帮助识别我的错误。
谢谢。