我正在研究有关在消费者硬件上运行的专用I/O软件。本质上它归结为保存大量数据流以供后续处理。现在我正在寻找一个模型来估计性能因子x86。估计处理器频率如何影响I/O性能
采取例如新Macbook Pro:
高速霹雳I/O(输入/输出)技术提供 每传输速度的第二一个惊人的10个千兆比特在两个 方向
1.25 GB/s
听起来不错,但当天的大多数处理器都在2 Ghz
附近。只要每个网络通道只能分配一个内核,多个内核几乎没什么区别。
所以即使软件充当微型操作系统和限制本身到网络/磁盘操作,流向存储的数据量不能大于P/(2 * N)
[1]每秒块。虽然这暗示了性能极限的问题,但我觉得这还远远不够。
应该根据处理器频率和其他硬件细节来估计I/O性能还有哪些其他考虑因素?为了简单起见,假设在任何情况下存储都能立即执行。
[1] P - 处理器频率; N算法开销
有趣的问题。 – murrekatt
您还需要记住,许多高速数据传输正在通过定制硬件接口使用DMA(直接存储器访问) –
@Mark Hall - 好点,感谢您的输入。 – Saul