我正在通过Gallager解决数据网络中的一些示例,我不太了解这个特定的问题。问题变为如下:传输数据时的标准偏差
假设一个链路上的预期帧长度为1000个比特,标准偏差是500个比特 找到预期时间和到9600链路上传送一万帧所需的时间标准偏差。 后续问题是:帧的传输速率通常定义为预期传输时间的倒数。使用你在前面的问题中找到的结果,讨论这个定义是否合理。
我尝试如下:
时间发送一帧是:九千六百分之千=0.104秒 因此,定时发送万帧是= 104,000秒
我没看懂第二部分,它要求找到标准差和后续问题。我也不明白当我们说500比特的标准偏差是什么意思时,这是否意味着错误损失,在这里是50%?
这不是一个家庭作业问题。我有几天的期中考试,我正在解决这些问题,以提高我对这个问题的掌握程度。
任何帮助/提示将理解
感谢, 钱德尔