我有一个用Scala编写的spark工作,我只想写一行用逗号分隔的行,来自Kafka生产者到Cassandra数据库。 但我无法调用saveToCassandra。 我看到几个wordcount的例子,他们正在写地图结构到两列的卡桑德拉表,它似乎工作正常。但是我有很多列,我发现数据结构需要并行化。 这里是我的代码示例:使用spark将数据写入cassandra
object TestPushToCassandra extends SparkStreamingJob {
def validate(ssc: StreamingContext, config: Config): SparkJobValidation = SparkJobValid
def runJob(ssc: StreamingContext, config: Config): Any = {
val bp_conf=BpHooksUtils.getSparkConf()
val brokers=bp_conf.get("bp_kafka_brokers","unknown_default")
val input_topics = config.getString("topics.in").split(",").toSet
val output_topic = config.getString("topic.out")
val kafkaParams = Map[String, String]("metadata.broker.list" -> brokers)
val messages = KafkaUtils.createDirectStream[String, String, StringDecoder, StringDecoder](ssc, kafkaParams, input_topics)
val lines = messages.map(_._2)
val words = lines.flatMap(_.split(","))
val li = words.par
li.saveToCassandra("testspark","table1", SomeColumns("col1","col2","col3"))
li.print()
words.foreachRDD(rdd =>
rdd.foreachPartition(partition =>
partition.foreach{
case x:String=>{
val props = new HashMap[String, Object]()
props.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, brokers)
props.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG,
"org.apache.kafka.common.serialization.StringSerializer")
props.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG,
"org.apache.kafka.common.serialization.StringSerializer")
val outMsg=x+" from spark"
val producer = new KafkaProducer[String,String](props)
val message=new ProducerRecord[String, String](output_topic,null,outMsg)
producer.send(message)
}
}
)
)
ssc.start()
ssc.awaitTermination()
}
}
我认为这是斯卡拉的是,我没有得到正确的语法。 在此先感谢。
words.par的调用几乎肯定不是正确的做法。 Dstream的“词汇”已经是一个DStream,它的本质已经被分布和并行化了。没有这个,你有什么问题? – RussS
它工作没有“.par”,但现在我想知道如何分割值提取col1,col2,col3的值?例如,如果在kafka生产者中写入“val1,val2,val3”,那么我如何提取这些值并分别存储在col1,col2和col3中? – user3925365
你是说你不能.split(“,”)字符串? – RussS