0

我正在通过Gallager解决数据网络中的一些示例,我不太了解这个特定的问题。问题变为如下:传输数据时的标准偏差

假设一个链路上的预期帧长度为1000个比特,标准偏差是500个比特 找到预期时间和到9600链路上传送一万帧所需的时间标准偏差。 后续问题是:帧的传输速率通常定义为预期传输时间的倒数。使用你在前面的问题中找到的结果,讨论这个定义是否合理。

我尝试如下:

时间发送一帧是:九千六百分之千=0.104秒 因此,定时发送万帧是= 104,000秒

我没看懂第二部分,它要求找到标准差和后续问题。我也不明白当我们说500比特的标准偏差是什么意思时,这是否意味着错误损失,在这里是50%?

这不是一个家庭作业问题。我有几天的期中考试,我正在解决这些问题,以提高我对这个问题的掌握程度。

任何帮助/提示将理解

感谢, 钱德尔

回答

1

假设分布是正常的,那么你有一个sum of normally distributed variables。在这种情况下,期望和方差都很容易计算,您可以添加它们。

1 frame ~ N(1000,500) 
1 mil frams ~ (1E9,5E8) 

由9600

E[time] ~= 104167 seconds 
std[time] ~= 52083 seconds 

一个细节,让您刚刚划分这两个时间是,这是愚蠢的他们使用正态分布,因为有一定的概率不为零的框架有负比特。因此,有一些非零的机会,你会在负面时间发送你所有的(负数)位...因为他们没有指定分配,我不明白他们可能意味着什么。