2017-03-11 30 views
1

我目前正在评估Google Cloud Dataflow。根据documentation,you may run up to 25 concurrent Dataflow jobs per Cloud Platform project.Cloud Dataflow上的25个作业限制是否可以扩展?

这似乎很低。在运行100个中小型作业时,我可以看到很多价值,能够支持并行部署,测试和模块化管道(许多小型作业似乎可以更容易更新/升级,即使Dataflow具有一些支持就地管道升级)。

这个限制能否以某种方式增加,就像许多配额可以在GCP上一样?解决此限制的常见做法是什么?

回答

0

是的,你可以要求增加你的项目的限制。您可以写信给[email protected]并提供您的项目ID吗?