Tag: 时钟

如何在VirtualBox内同步主机唤醒时间?

我使用VirtualBox在Vagrant内部运行一个基于Ubuntu 12.04的盒子。 到目前为止,一切都很好 – 除了一件事情: 假设虚拟机正在运行。 然后,主机进入待机模式。 再次唤醒后,虚拟机仍在运行,但内部时钟继续在主机closures时停止。 所以这主要是指:让主机hibernate15分钟,再次唤醒,然后虚拟机的内部时钟延迟15分钟。 我怎样才能解决这个问题(手动设置时间不是一个显而易见的select;-))? 当主机系统改变其状态时,是否有办法在Vagrant虚拟机内运行脚本? 我已经阅读了文档 ,默认情况下,VirtualBox Guest Additions每隔10秒就会与主机同步一次。 显然这没有发生,但我找不到任何地方,它被禁用。 那么有什么想法? PS:Guest Additions已安装,并且与正在使用的VirtualBox版本相匹配。

在R命令行中显示一个时钟

我不知道是否有一种方法来显示R命令行中的当前时间,就像在MS DOS中一样,我们可以使用 Prompt $T $P$G 在每条提示行中包含时钟。 就像是 options(prompt=paste(format(Sys.time(), "%H:%M:%S"),"> ")) 会做到这一点,但它是固定在它被设置的时间。 我不知道如何自动更新。

时序algorithm:C ++中的clock()与time()

为了计算algorithm(大约以毫秒为单位),这两种方法中的哪一种更好: clock_t start = clock(); algorithm(); clock_t end = clock(); double time = (double) (end-start) / CLOCKS_PER_SEC * 1000.0; 要么, time_t start = time(0); algorithm(); time_t end = time(0); double time = difftime(end, start) * 1000.0; 另外,从Freenode的C ++频道的一些讨论中,我知道时钟的分辨率非常差,所以对于(相对)快的algorithm,时序将为零。 但是,有更好的parsing时间()或时钟()? 还是一样?

一个C ++优化器重新sorting调用clock()是否合法?

C ++编程语言第4版(第225页)表示: 只要结果与简单的执行顺序相同,编译器就可以对代码进行重新sorting以提高性能 。 一些编译器,例如发布模式下的Visual C ++,将重新排列这个代码: #include <time.h> … auto t0 = clock(); auto r = veryLongComputation(); auto t1 = clock(); std::cout << r << " time: " << t1-t0 << endl; 进入这种forms: auto t0 = clock(); auto t1 = clock(); auto r = veryLongComputation(); std::cout << r << " time: " << t1-t0 […]

无钟电脑芯片发生了什么事?

几年前,“下一件大事”就是没有时钟的电脑。 背后的想法是没有时钟,处理器将运行速度更快。 那就是现在,现在,我找不到任何有关它是如何来的信息,或者如果这个想法是一个胸围… 有人知道吗? 以供参考: http://www.cs.columbia.edu/~nowick/technology-review-article-10-01.pdf

docker的容器会自动同步主机的时间?

给我已经正确地更改了docker容器的时区。 我是否需要在Docker容器中安装一个NTP服务器来定期同步时间,或者容器将同步它主机的时间?

如何在C ++中使用clock()

如何在C++调用clock() ? 例如,我想testing线性search花费多less时间来查找数组中的给定元素。

如何在Python中获得单调时间?

我想logging在真实的墙上时间需要多长时间。 目前我正在这样做: startTime = time.time() someSQLOrSomething() print "That took %.3f seconds" % (time.time() – startTime) 但是,如果在SQL查询(或其它)正在运行的时候调整时间,那将会失败(产生不正确的结果)。 我不想只以它为基准。 我想将其login到实时应用程序中,以便查看实时系统上的趋势。 我想要的东西像clock_gettime(CLOCK_MONOTONIC,…),但在Python中。 最好不用写一个调用clock_gettime()的C模块。

我如何计算在Java中的事件经过的时间?

使用Java访问系统时钟的简单方法是什么?以便我可以计算事件的stream逝时间?

使用clock()函数调度任务时发出

我想在不同的时间间隔安排任务:在0.1秒,0.9s …. 2s等我使用clock()C ++函数,返回自仿真开始以来的滴答数,我将滴答数转换为秒使用CLOCKS_PER_SEC,但我注意到,该任务是不是计划时,即时是一个浮动,但是当它是一个整数它没有。 这里负责调度的部分代码: float goal = (float) clock() / CLOCKS_PER_SEC + 0.4 ; // initially (float) clock() / CLOCKS_PER_SEC = 0 ; if ((float) clock() / CLOCKS_PER_SEC == goal) do stuff ; 在这种情况下,它不起作用,但是当我安排在3秒内完成任务,例如它的工作。 这是一个精度问题?