1
我有以下代码Apache Spark SQL从Cassandra中获取数十亿行数据?
我调用火花壳如下
./spark-shell --conf spark.cassandra.connection.host=170.99.99.134 --executor-memory 15G --executor-cores 12 --conf spark.cassandra.input.split.size_in_mb=67108864
代码
scala> val df = spark.sql("SELECT test from hello") // Billion rows in hello and test column is 1KB
df: org.apache.spark.sql.DataFrame = [test: binary]
scala> df.count
[Stage 0:> (0 + 2)/13] // I dont know what these numbers mean precisely.
如果我调用火花壳如下
./spark-shell --conf spark.cassandra.connection.host=170.99.99.134
代码
val df = spark.sql("SELECT test from hello") // This has about billion rows
scala> df.count
[Stage 0:=> (686 + 2)/24686] // What are these numbers precisely?
这两个版本都不起作用Spark永远在运行,我一直在等待超过15分钟而没有响应。关于什么可能是错误的以及如何解决这个问题的任何想法?
我使用星火2.0.2 和火花卡桑德拉 - connector_2.11-2.0.0-M3.jar