0
我已经使用ambari在spark-env.sh中设置了PYSPARK_PYTHON = python3,并且当我在命令行中尝试'pyspark'时,它使用python 3.4.3 。但是,当我使用yarn cluster模式提交作业时,它使用python 2.7.9运行。我如何使它使用python3?Pyspark在纱线集群模式下不使用python3,即使使用PYSPARK_PYTHON = python3
我已经使用ambari在spark-env.sh中设置了PYSPARK_PYTHON = python3,并且当我在命令行中尝试'pyspark'时,它使用python 3.4.3 。但是,当我使用yarn cluster模式提交作业时,它使用python 2.7.9运行。我如何使它使用python3?Pyspark在纱线集群模式下不使用python3,即使使用PYSPARK_PYTHON = python3
你需要给像python3的完整路径:
subprocess.call(['export PYSPARK_PYTHON=/usr/local/bin/python2.7'],shell=True)
我已经设置spark-env.sh与“出口PYSPARK_PYTHON =的/ usr/bin中/ python3.4 出口PYSPARK_DRIVER_PYTHON =的/ usr/bin中/python3.4“,但它仍然是一样的。使用python2 – mankand007