我已经开始从Spark引擎学习Spark流,并且很新的数据分析和火花。我只是想创建一个小IOT应用程序,我想要预测未来的数据。Java Spark Streaming JSON解析
我有TIVA硬件,它发送实时传感器JSON数据如下,
[{"t":1478091719000,"sensors":[{"s":"s1","d":"+253.437"},{"s":"s2","d":"+129.750"},{"s":"s3","d":"+45.500"},{"s":"s4","d":"+255.687"},{"s":"s5","d":"+290.062"},{"s":"s6","d":"+281.500"},{"s":"s7","d":"+308.250"},{"s":"s8","d":"+313.812"}]}]
在此T是其中数据被张贴UNIX时间戳。 传感器是一组传感器,每个传感器('s')的数据都是'd'。
我想要做的就是消费这些数据并创建对象,然后使用Spark的Mlib(机器学习)或等效库来预测未来数据。
我希望有一个总体思路,这是否将有可能与所有的技术选择
- 我已经决定使用?
- 如何使用嵌套的JSON?我尝试使用SQLContext但没有成功。
- 一般准则,以实现我在这里要做的。
这是我用来使用来自KAFKA的消息的代码。 PS:我想在Java中这样做,以保持线性和良好的性能。
你能后的代码,你尝试过什么到目前为止?它可以使用Spark SQL和Streaming。 – Shankar
发布代码有问题。 –
当您尝试'sqlContext'来读取json字符串时,您遇到了什么问题?该任务不是可序列化的问题? – Shankar