我在看这个视频中,杰夫·迪恩谈到延迟和缩放的每杰夫·迪恩 - https://www.youtube.com/watch?v=nK6daeTZGA8#t=515请求延迟为谷歌
在0点07分34秒大关,他给出了是这样的等待时间的例子 -
可以说你有一堆服务器。他们对请求的平均响应时间是10ms。但是有1%的时间需要1秒或更长时间才能做出回应。因此,如果您触摸其中一台服务器,则1%的请求需要1秒或更长时间。触摸这些服务器中的100个,63%的请求需要1秒或更长时间。
他是怎么达到这个63%的数字的?这背后的逻辑/数学是什么?
这似乎跑题这么久。 – admdrew
这是如何脱离主题?看看这个问题,它讨论了请求 - 响应延迟。这样的逻辑有助于工程师更好地分析系统我只是想了解这个逻辑背后的数学。 –
这不是真的与编程有关 - 这个问题可能应该迁移到http://serverfault.com –