我想在我的机器localy使用Spark和我能够重现教程在:SparkR在Windows上 - 星火SQL不与蜂巢支持内置
然而,当我尝试使用蜂巢我得到以下错误:
Error in value[3L] : Spark SQL is not built with Hive support
代码:
## Set Environment variables
Sys.setenv(SPARK_HOME = 'F:/Spark_build')
# Set the library Path
.libPaths(c(file.path(Sys.getenv('SPARK_HOME'), 'R','lib'),.libPaths()))
# load SparkR
library(SparkR)
sc <- sparkR.init()
sqlContext <- sparkRHive.init(sc)
sparkR.stop()
首先,我怀疑这是星火的预建版本,然后我试图建立我使用Maven自己,历时将近一个小时:
mvn -Pyarn -Phadoop-2.6 -Dhadoop.version=2.6.0 -Phive -Phive-thriftserver -DskipTests clean package.
然而,错误仍然存在。
你是对的...我放弃了尝试在Windows上进行这项工作。它花了我几个小时,但它正在我的Linux VM –
最好的选择,你可以使:-) – desertnaut