1
我目前正在评估Google Cloud Dataflow。根据documentation,you may run up to 25 concurrent Dataflow jobs per Cloud Platform project.
。Cloud Dataflow上的25个作业限制是否可以扩展?
这似乎很低。在运行100个中小型作业时,我可以看到很多价值,能够支持并行部署,测试和模块化管道(许多小型作业似乎可以更容易更新/升级,即使Dataflow具有一些支持就地管道升级)。
这个限制能否以某种方式增加,就像许多配额可以在GCP上一样?解决此限制的常见做法是什么?