2016-04-13 50 views
1

我是Spark的新手,目前正在学习相关概念。我拥有的一个基本问题是Spark中RDD的数量限制是多少?Spark中RDD数量的最大限制

+2

那么,内存和磁盘空间可以限制你并行处理多少个RDD,但除了你可以(AFAIK)拥有尽可能多的RDDs,你想:) –

回答

0

据我所知,Spark中RDD的数量没有限制。

只限于内存和磁盘交换空间Spark可以扩展/使用。

我一直在生产40tb的数据,但尚未达到任何类型的限制。

相关问题