2017-06-22 46 views
0

有了这个话题,我会更好地讨论HR定时器和真正的精度问题。HR定时器精确度研究案例

我研究了大量有关它们的文档,我确信它们是在Linux内核模块中延迟执行问题的最好也是最可靠的解决方案,其CPU成本较低,并且定时精度更高(例如一些时间关键的驱动程序也使用它们,就像这个https://dev.openwrt.org/browser/trunk/target/linux/generic/files/drivers/pwm/gpio-pwm.c?rev=35328)。

你也适合吗?

这是我在这个主题上见过的最全面和最详细的文档之一:https://www.landley.net/kdocs/ols/2006/ols2006v1-pages-333-346.pdf

HR定时器承诺在jiffies分辨率下运行,但不幸的是,在我的系统中,我没有得到延迟低于6毫秒的预期结果(我将在稍后显示更多细节)。

我的环境是:

  • 的Windows 10 PRO 64位/ 8GB内存/ CPU英特尔4个核
  • 的VMware Player 12
  • 虚拟化操作系统Linux Mint的18.1 64位

  • 内核配置

    • 版本:4.10.0-24-ge neric
    • CONFIG_HIGH_RES_TIMERS = Y
    • CONFIG_POSIX_TIMERS = Y
    • CONFIG_NO_HZ_COMMON = Y
    • CONFIG_NO_HZ_IDLE = Y
    • CONFIG_NO_HZ = Y
    • CONFIG_HZ_250 = Y
    • CONFIG_HZ = 250

    • /sys/devices/system/clocksource/clocksource0/available_clocksource => ts ÇHPET acpi_pm

    • /SYS /装置/系统/ clocksource/clocksource0/current_clocksource => TSC

要执行的基准我写了我自由在发布一个Linux内核模块网址https://bitbucket.org/DareDevilDev/hr-timers-tester/。在自述文件中有自己编译和运行的说明。

它执行一系列的循环如下:

  • 10美国.. 90 US,增量通过美国10
  • 100 US .. US 900,增量100美国
  • 1毫秒。 9 ms,增量1 ms
  • 10 ms .. 90 ms,增加10 ms
  • 100 ms ..900毫秒,100毫秒
  • 递增,并且最后1秒

的定时由“ktime_get”功能测量并存储在预先分配的阵列,更快的演出,并避免内部的不希望的延迟小时定时器回调。

收集数据后,模块打印出采样数据表。

对于我的情况的相关数据是:

10 uS =  41082 nS 
    20 uS =  23955 nS 
    30 uS =  478361 nS 
    40 uS =  27341 nS 
    50 uS =  806875 nS 
    60 uS =  139721 nS 
    70 uS =  963793 nS 
    80 uS =  39475 nS 
    90 uS =  175736 nS 
    100 uS = 1096272 nS 
    200 uS =  10099 nS 
    300 uS =  967644 nS 
    400 uS =  999006 nS 
    500 uS = 1025254 nS 
    600 uS = 1125488 nS 
    700 uS =  982296 nS 
    800 uS = 1011911 nS 
    900 uS =  978652 nS 
1000 uS = 1985231 nS 
2000 uS = 1984367 nS 
3000 uS = 2068547 nS 
4000 uS = 5000319 nS 
5000 uS = 4144947 nS 
6000 uS = 6047991 nS <= First expected delay! 
7000 uS = 6835180 nS 
8000 uS = 8057504 nS 
9000 uS = 9218573 nS 
10000 uS = 10435313 nS 

...等等...

正如你可以在上面内核日志转储看,6毫秒是第预期延迟样本。

我在C.H.I.P.上重复了同样的测试。嵌入式系统(https://getchip.com/pages/chip),基于ARM的板载Raspberry,运行频率为1 GHz,并且配备了Ubuntu 14.04(内核4.4.13,HZ = 200)。

在这种情况下,我得到了更好的结果:

30 =  44666 nS 
    40 =  24125 nS 
    50 =  49208 nS 
    60 =  60208 nS 
    70 =  70042 nS 
    80 =  78334 nS 
    90 =  89708 nS 
100 =  126083 nS 
200 =  184917 nS 
300 =  302917 nS <= First expected delay! 
400 =  395000 nS 
500 =  515333 nS 
600 =  591583 nS 
700 =  697458 nS 
800 =  800875 nS 
900 =  900125 nS 
1000 = 1013375 nS 

...等等...

在那个便宜的主板了良好的效果,因为来美国300。

您的意见是?有没有更好的方法来以独立于平台的方式从HR计时器获得更高的精度? HR定时器是精确定时的错误解决方案(必须在编写硬件驱动程序时使用)?

每个贡献将非常感激。

谢谢!

回答

0

问题解决了,这是一个虚拟化环境涉及的问题。我在旧的笔记本电脑(惠普单核1.9GHz)上得到了很好的延迟,而且在一个较新的笔记本电脑上(戴尔四核心),我在10us以下得到了很好的延迟!