我正在运行配置单元2.1.1,Ubuntu 16.04上的hadoop 2.7.3。Spark上的Hive 2.1.1 - 我应该使用哪个版本的Spark
据Hive on Spark: Getting Started,它说
Install/build a compatible version. Hive root pom.xml's defines what version of Spark it was built/tested with.
我检查了pom.xml的,它表明,火花的版本是1.6.0。
<spark.version>1.6.0</spark.version>
但Hive on Spark: Getting Started也说,
Prior to Spark 2.0.0: ./make-distribution.sh --name "hadoop2-without-hive" --tgz "-Pyarn,hadoop-provided,hadoop-2.4,parquet-provided"
Since Spark 2.0.0: ./dev/make-distribution.sh --name "hadoop2-without-hive" --tgz "-Pyarn,hadoop-provided,hadoop-2.7,parquet-provided"
所以现在我很困惑,因为我正在运行的Hadoop 2.7.3。我必须将我的hadoop降级到2.4吗?
我应该使用哪个版本的Spark? 1.6.0还是2.0.0?
谢谢!
我试过Spark 1.6.0,它工作。我会按照你的建议测试Spark 2.0.2。 –
如果您遇到任何问题,请告知我。 –
@siddharthajain,请你分享你在Spark上配置Hive的详细步骤?我试图在Spark(2.1.0)上运行Hive(2.1.1),但失败了。我以独立模式启动Spark,并使用以下命令启动配置单元:hive --auxpath $ HOME/Tools/spark-2.1.0-bin-hadoop2.7/jars /,使用命令设置配置单元: set hive.execution.engine = spark; set spark.master = spark://10.0.0.26:7077; 配置单元> set spark.eventLog.enabled = true; hive> set spark.eventLog.dir =/tmp/hive-shizhz/spark /; 配置单元> set spark.executor.memory = 512m; 配置单元> set spark.serializer = org.apache.spark.serializer。KryoSerializer; – shizhz