2
我正在使用火花mapwithstate,但存储空间不断增加。spark-mapwithstate为什么存储空间的数量仍然是20?
问题1:
内存9GBMapPartitionsRDD大小x 20则可以减少这种规模?
问题2:
And in InternalMapWithStateDStream, storagelevel is fixed to MEMORY_ONLY.
我想改变坚持(StorageLevel.MEMORY_ONLY_SER),因为它的规模。可能吗?
问题3:
Private [streaming] object InternalMapWithStateDStream {
Private val DEFAULT_CHECKPOINT_DURATION_MULTIPLIER = 10
}
我想减少这种检查点值。可能吗?
谢谢你的回答。 ** 1。该集群分布良好**但您只需要最后一个状态存储,为什么还有剩余的19个存储? ** dStream.mapWithState(spec).checkpoint(秒(4))**不工作默认情况下运行10 interva'val kafkastateStream = chnlStream.mapWithState(stateSpec) kafkastateStream.checkpoint(Seconds(10 * 5)) val kafkaSnapshotStream = kafkastateStream.stateSnapshots()' –
@HyunkeunLee *但你只需要最后一个状态存储,为什么你还剩下19个存储?*这完全取决于你如何存储状态。新来的国家有*不同的钥匙*?你在每次迭代中存储新状态吗?向我们展示代码。关于检查点,如果它不使用自定义间隔,它应该运行每个批处理时间*默认间隔*。 –