我正在使用spark1.6。我正在使用spark上下文创建hivecontext。当我将数据保存到配置单元时,它会给出错误。我正在使用cloudera vm。我的配置单元位于cloudera虚拟机内,并在我的系统中启动。我可以使用IP访问虚拟机。我已经启动了虚拟机上的节俭服务器和hiveserver2。我有hive.metastore.uris val hiveContext = new Hive
我试图访问在星火使用HiveContext蜂巢映射HBase的表。但我得到ClassNotFoundException例外..下面是我的代码。 import org.apache.spark.sql.hive.HiveContext
val sqlContext = new HiveContext(sc)
val df = sqlContext.sql("select * from dbn.h