我正在运行Hive 2.1.1,Spark 2.1.0和Hadoop 2.7.3。Hive on Spark:Missing <spark-assembly * .jar>
我试图建立星火继Hive on Spark: Getting Started:
./dev/make-distribution.sh --name “hadoop2-没有蜂巢” --tgz “-Pyarn,Hadoop的提供, hadoop-2.7,parquet-provided“
但是,我在spark目录下找不到任何spark-assembly jar文件(find . -name "spark-assembly*.jar"
不返回任何内容)。我试过export SPARK_HOME=/home/user/spark
,而不是将火花组装罐连接到HIVE_HOME/lib
。
我得到直线以下蜂巢错误:
0: jdbc:hive2://localhost:10000> set hive.execution.engine=spark;
0: jdbc:hive2://localhost:10000> insert into test (id, name) values (1, 'test1');
Error: Error running query: java.lang.NoClassDefFoundError: scala/collection/Iterable (state=,code=0)
我认为错误是由缺少火花组装罐引起的。
我该如何构建/我在哪里可以找到那些spark-assembly jar文件?
我该如何解决上述错误?
谢谢!
你可以尝试使用'sudo find/-name'来搜索整个系统 –
我相信** Spark 2.x **以后不需要'spark-assembly.jar'。 – mrsrinivas
@mrsrinivas那么我怎么能把火花链接到蜂巢?你介意我是否将你的评论置于这个问题之中? –