gettimeofday

    0热度

    2回答

    我已经编写了一个代码,以确保while(1)循环的每个循环需要特定的时间量(在本例中为10000μs,等于0.01秒)。问题是这段代码在开始时工作得很好,但不到一分钟后就停下来了。这就像是访问Linux时间的限制。目前,我正在初始化一个布尔变量来使这个时间计算运行一次,而不是无限的。由于性能随时间而变化,因此计算每个循环的计算时间会很好。有没有其他方法可以实现这一点? void some_func

    0热度

    1回答

    我有一个循环运行每个X usecs,其中包括做一些I/O然后睡觉剩余的X usecs。以(大致)计算出的睡眠时间,所有我做的是一个时间戳之前和之后的I/O和减去X.这里的区别是我使用时间戳功能: long long getus() { struct timeval time; gettimeofday(&time, NULL); return (long lo

    0热度

    2回答

    我有下面的C代码: uint64_t combine(uint32_t const sec, uint32_t const usec){ return (uint64_t) sec << 32 | usec; }; uint64_t now3(){ struct timeval tv; gettimeofday(&tv, NULL); return

    1热度

    1回答

    我使用gprof分析netbsd上的用户空间应用程序,并使用高达30%的周期查看clock_gettime。 Gprof没有显示它从哪里调用(它显示了一些明显不会调用clock_getttime的函数)。 该应用程序使用包括libevent 1.4(似乎使用clock_gettime)的第三方代码。我看着从那个电话中删除,但无法确定。 我不明白为什么需要那么多时间。任何输入将不胜感激。我也看到ge

    3热度

    1回答

    我想知道为什么python 2.7使用gettimeofday()运行时time.time()但尚未在python 3.4它不? 运行strace的,当它看来,它可查询的/ etc /本地时间

    5热度

    2回答

    我有一个程序来计算pub-sub模型中对象的延迟。我使用了以下函数来计算时间戳: uint64_t GetTimeStamp() { struct timeval tv; gettimeofday(&tv,NULL); return tv.tv_sec*(uint64_t)1000000+tv.tv_usec; } 延迟时间被测量为发布者和订阅者的时间戳差异。所

    0热度

    1回答

    我用C语言中的gettimeofday()函数创建了一个随机数生成器。现在,我需要使用由Knuth开发的统计或经验方法来评估它。我彻底搜索了相同的内容,但找不到可行的解决方案。或者我可能是错的。根据上述标准,请帮助我评估此RNG。 #include <sys/time.h> #include <time.h> #include <stdlib.h> #include <stdio.h>

    0热度

    1回答

    有时,我在下面的代码中得到负值。 我不明白这一点。任何人都可以解释为什么会发生。 int64_t gettimelocal() { struct timeval Time; if(-1 == gettimeofday(&Time,NULL)) { perror("gettimeofday"); } // get time in mic

    0热度

    1回答

    我有一个应用程序调用gettimeofday来存储代码的该部分开始运行的tv_sec。这段代码很简单: struct timeval tvnow; gettimeofday(&tvnow); int initialTime = tvnow.tv_sec; 它通常工作正常,但有时我得到意想不到的结果,如 tvnow = {tv_sec = 1024, tv_usec = 0} initia

    0热度

    2回答

    我希望你们中的一些编码天才可能会帮助像我这样的编码受损个体。我必须创建这个程序,在我之前创建的另一个程序上添加时间戳。现在,我正在尝试使用C++中的gettimeofday函数获取时间(我们正在Unix btw中执行此操作)。 无论如何,我有一小段代码准备编译,除了我不断收到2个特定的错误。也许,如果有人可以帮助我在这方面也给我的代码看起来到目前为止那简直太好了一些建议...... #includ