嗨,我是scala和spark的新手。我正在尝试通过spark sql进行分组。当我试图保存或查看输出时,会抛出以下错误。如何通过fucnction将数据组转换为数据帧
value coalesce is not a member of org.apache.spark.sql.RelationalGroupedDataset
这是我的代码。
val fp = filtertable.select($"_1", $"_2", $"_3",$"_4").groupBy("_1", "_2","_3")
fp.show() // throws error
fp.coalesce(1).write.format("csv").save("file://" + test.toString()) //throws error.
任何帮助将不胜感激。
你有使用'后执行聚合函数groupBy' – philantrovert
但是没有必要对我进行汇总。 – Rakshita
你想用列“_4”做什么? –