0
我试图在命令行中针对远程Spark集群运行Spark-SQL(配置单元查询)。但是在连接到Spark主机后,我得到了“Table not found”。Spark-SQL命令行对远程集群使用Hive查询
这是我从$SPARK_HOME/bin
尝试:
./spark-sql --jars /.../calliope-hive-assembly-1.1.0-CTP-U2-2.jar \
/../calliope-hive_2.10-1.1.0-CTP-U2.jar --master spark://<<master_url>>:7277 \
--executor-memory 1000M --total-executor-cores 2 " select count(*) *****"
这是我得到的查询
错误:没有找到表:
请帮助
嗨Srini,谢谢你的回应。我的情况是,我正在对我的火花大师发起我的查询,我的桌子在卡桑德拉。我的env中没有隐式的hive安装。让我知道如何在这种情况下提供配置单元配置。我使用Spark 1.6反对cassandra 3.0.4版本 –
嗨Srini,谢谢你的回应。我的情况是,我正在对我的火花大师发起我的查询,我的桌子在卡桑德拉。我的env中没有隐式的hive安装。让我知道如何在这种情况下提供配置单元配置。我正在使用Spark 1.6反对cassandra 3.0.4版本 –