我有一个使用spark的spark,scala sbt项目。我需要多个创建HiveContexts,这是内置derby对火花蜂巢不允许的。有人可以帮助我设置mysql作为Metastore,而不是Derby,这是默认数据库。我没有安装实际的配置单元或安装了spark。我对火花和配置单元使用sbt依赖关系。在星火的conf目录将MySQL设置为内置火星蜂巢的Metastore
1
A
回答
0
复制蜂房site.xml文件并在该文件
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://localhost:3306/metastore_db?createDatabaseIfNotExist=true</value>
<description>JDBC connect string for a JDBC metastore</description>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
<description>Driver class name for a JDBC metastore</description>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>hive</value>
<description>username to use against metastore database</description>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>hive</value>
<description>password to use against metastore database</description>
</property>
0
沙克蒂
你必须在类路径的conf文件更改某些属性。我正在用Intellij来使用hadoop,hive和spark。在Intellij中,我在我的类路径中有file/usr/local/spark/conf /,file:/ usr/local/hadoop/etc/hadoop /和file:/ usr/local/hive/conf /。您可以使用下面打印您的运行时类路径:
val cl = ClassLoader.getSystemClassLoader
cl.asInstanceOf[java.net.URLClassLoader].getURLs.foreach(println)
我希望这个帮助,如果你还没有找到了解决。
相关问题
- 1. 蜂巢德比Metastore配置
- 2. SparkR在Windows上 - 星火SQL不与蜂巢支持内置
- 3. 如何设置在蜂巢
- 4. 星火 - Thirft - - 蜂巢交互器
- 5. 去除蜂巢metastore数据库
- 6. 蜂巢未能metastore数据库
- 7. 查询远程蜂巢metastore得到表
- 8. 阿帕奇星火 - 蜂巢内部联接,LIMIT和定制UDF
- 9. 蜂巢DSN设置连接问题
- 10. 蜂巢执行引擎 - 星火 - 无法创建火花客户
- 11. 星火/蜂巢 - 组数据为“枢轴表”格式
- 12. HDInsight蜂巢日志位置
- 13. 蜂巢和星火窗口功能的数据洗牌
- 14. 星火RDD:设置差异
- 15. 星火基准设置
- 16. 星火工作没找到表蜂巢数据库
- 17. 插入从星火代码蜂巢表失败
- 18. 星火:无法从蜂巢表中读取数据
- 19. 阵列<double>星火写专栏蜂巢表
- 20. 更新表蜂巢使用星火斯卡拉
- 21. 患有Kerberos的蜂巢Metastore“时钟扭曲太大”错误
- 22. 蜂巢Metastore尝试创建一个德比连接,而不是MySQL的
- 23. 抛出ClassCastException在apache的火花蜂巢
- 24. SQOOP Mysql的进口蜂巢错误用户不属于蜂巢
- 25. 如何配置MySQL的35年5月5日与蜂巢0.12
- 26. 蜂巢外部表在MySQL
- 27. 在蜂巢外部表 - 位置
- 28. 蜂巢火花子进程连接回
- 29. 如何访问蜂巢表火花
- 30. 选择内选择蜂巢
我的项目是一个sbt项目,它使用火花罐。任何地方都没有conf目录。尝试在项目根目录下创建一个conf目录,但没有任何影响。 – Shakti
不在您的项目中,请转至群集的配置目录,其他conf文件驻留的位置像spark-default.conf和spark-env.sh。然后将hive-site.xml文件复制到此目录中并更改属性 – Kaushal
我没有使用群集,而是使用了一个spark jar。没有其他配置文件。 – Shakti