1
我读一个CSV文件中的Spark 2.0,并使用一列计数不为空值选择dataframes NOT NULL值如下:在星火
val df = spark.read.option("header", "true").csv(dir)
df.filter("IncidntNum is not null").count()
,当我用放电测试它,它工作正常-贝壳。当我创建一个包含代码的jar文件,并提交给火花提交,我在上面的第二条线得到一个例外:
Exception in thread "main" org.apache.spark.sql.catalyst.parser.ParseException:
extraneous input '' expecting {'(', 'SELECT', ..
== SQL ==
IncidntNum is not null
^^^
at org.apache.spark.sql.catalyst.parser.ParseException.withCommand(ParseDriver.scala:197)
知道为什么这时候我使用的火花工作的代码会发生-贝壳?