14
我正在使用Spark 1.3.0和Spark Avro 1.0.0。 我从the example on the repository page工作。这下面的代码工作以及字符串上的过滤器火花DataFrame包含
val df = sqlContext.read.avro("src/test/resources/episodes.avro")
df.filter("doctor > 5").write.avro("/tmp/output")
但是,如果我需要看看是否doctor
字符串包含一个子呢?由于我们在字符串内写入我们的表达式。我该怎么做一个“包含”?
是上面的scala代码吗?看起来像scala不喜欢$符号。我导入了'import org.apache.spark.sql.functions.lit' –
Scala。为了使'$'工作,你需要'import sqlContext.implicits._'。你可以用'df(“foo”)''或'org.apache.spark.sql.functions.col(“foo”)'替换它。 – zero323
太棒了!非常感谢 –