我想要一个Spark Sql的concat函数。 我已经写了UDF作为Spark Sql udf可变参数数
sqlContext.udf.register("CONCAT",(args:String*)=>{
String out=""
for(arg<-args)
{
out+=arg
}
out
})
sqlContext.sql("select col1,col2,CONCAT(col1,col2) from testtable")
但UDF不工作,我得到一个例外。 如果我尝试使用固定数量的参数,那么它工作。 我正在使用spark 1.3.1和scala 2.10.5。
有没有人遇到这个问题或知道这个解决方案?
您能否提供问题中的例外情况? – ColinMc