3
A
回答
2
Dataframe API是非类型化的API,因为只有在运行时才能知道类型。数据集API是类型化的API,在编译期间将知道类型。
df.select("device").where("signal > 10") // using untyped APIs
ds.filter(_.signal > 10).map(_.device) // using typed APIs
相关问题
- 1. 异步填充强类型数据集
- 2. 批量更新强类型数据集?
- 3. 强类型数据集抛出CastException
- 4. 强类型数据集的序列化
- 5. 强类型数据集 - XML序列化
- 6. LINQ - 用的SelectMany强类型数据集
- 7. 强类型数据集和System.Data.DataRowBuilder?
- 8. 强类型数据集:覆盖列get:set
- 9. 使用强类型数据集更新ASP.Net/VB.Net数据库
- 10. 从本地Sql Compact数据库更新强类型数据集
- 11. 如何将数据插入强类型数据集?
- 12. Spark 2.0数据集vs DataFrame
- 13. Jdbc数据类型为Spark SQL数据类型
- 14. 强类型数据的ViewPage
- 15. 强制数据类型
- 16. 强类型ASP.NET MVC中的数据集模型绑定
- 17. Dapper强类型集合类型
- 18. 用于行类型Spark数据集的编码器
- 19. xml和使用数据集设计器的强类型数据集
- 20. RegisterTempTable使用数据集Spark Java
- 21. VB.NET强类型集合
- 22. 类型化数据集和非类型化数据集
- 23. 强类型DataSet
- 24. Apache Spark SQL BLOB数据类型
- 25. Storm和Spark支持的数据类型
- 26. MongoDB Spark冲突数据类型
- 27. Spark:不支持变体数据类型
- 28. 谁会更好地构建数据层强类型化数据集或类
- 29. 强类型数据绑定和泛型?
- 30. 将spark数据帧数据类型映射到jdbc数据类型
任何人都可以请回答这个问题。 –
链接解释了数据集和数据框之间的差异。 http://stackoverflow.com/questions/31508083/difference-between-dataframe-and-rdd-in-spark/39033308?noredirect=1#comment68807827_39033308 –