2013-02-22 23 views
2

根据Azure的new scalability targets,表存储中的每个分区限制为2000个实体/秒。超过Azure存储表传输速率 - 如何?

我已经能够通过并行性达到最多16000个实体/秒的批量插入。

例如,在我的XtraLarge web角色(8个CPU,8个内核)上,我通过64个并行并行任务插入6400个实体(每个为64个独立的批量插入)。

这怎么可能? 2000个实体/秒只是分区预期的最低性能?

+0

每批是否使用相同的PartitionKey? – 2013-02-22 14:32:10

+0

@Herve:是的。我只写了一个分区。 – davenewza 2013-02-25 09:36:12

回答

4

他们的可扩展性目标,不限制。正如你指出的那样,这是最低期望的表现,而不是最高。我想你会发现,在那个特定的时间,在特定的网络和硬件上,来自其他Azure客户的资源几乎没有争用。另外,请注意实体的大小 - Azure似乎对小实体表现良好,目标将达到最大值(1MB)。被警告 - 虽然意外的表现可能是有用的,但不要计划它在那里。无论您达到限制的频率如何,还要确保您编写的是失败(500s和503s)编码,否则当存储服务性能不佳时,您的应用可能会失败。