我是新来spark.I想使用HiveContext在sparkSQL访问窗口functions.But我给这个时候,如何使用的Spark与HiveContext
import org.apache.spark.sql.hive.HiveContext
我得到以下错误:
error: object hive is not a member of package org.apache.spark.sql
我找到了需要在build.sbt文件中包含以下依赖项的解决方案。
libraryDependencies += "org.apache.spark" %% "spark-hive" % "1.5.2
但我不知道,我应该在哪里找到火花 ,我应该改变这种build.sbt文件,
/home/cloudera/spark-1.5.2/build/sbt
(或)
/home/cloudera/spark-1.5.2/sbt/sbt
(或)
/home/cloudera/spark-1.5.2/project/plugins.sbt
请帮帮我在build.sbt文件中添加依赖关系。
那么,你试图从头开始构建Spark? – zero323
是的..我试图从头开始构建它。但是在构建之前,我需要在build.sbt文件中添加依赖关系。从哪个文件夹我应该在spark中获取build.sbt文件? – Revathi