zoukankan      html  css  js  c++  java
  • Windows 计算程序运行时间(高精度计时)

    首先,认识一下clock()和GetTickCount():

    一、clock()
    clock()是C/C++中的计时函数,而与其相关的数据类型是clock_t。在MSDN中,查得对clock函数定义如下:
    clock_t clock(void) ;
    简单而言,就是该程序从启动到函数调用占用CPU的时间。这个函数返回从“开启这个程序进程”到“程序中调用clock()函数”时之间的CPU时钟计时单元(clock tick)数,在MSDN中称之为挂钟时间(wal-clock);若挂钟时间不可取,则返回-1。其中clock_t是用来保存时间的数据类型。

    在time.h文件中,我们可以找到对它的定义:

    [cpp] view plain copy
     
    1. #ifndef _CLOCK_T_DEFINED  
    2. typedef long clock_t;  
    3. #define _CLOCK_T_DEFINED  
    4. #endif  

    clock_t是一个长整形数。在time.h文件中,还定义了一个常量CLOCKS_PER_SEC,它用来表示一秒钟会有多少个时钟计时单元,其定义如下:
    #define CLOCKS_PER_SEC ((clock_t)1000)

    可以看到每过千分之一秒(1毫秒),调用clock()函数返回的值就加1。简单的说就是clock()可以精确到1毫秒。
    在linux系统下,CLOCKS_PER_SEC的值可能有所不同,目前使用的linux打印出来的值是1000000,表示的是微秒。这一点需要注意。

    二、GetTickCount()
    GetTickcount函数:它返回从操作系统启动到当前所经过的毫秒数,它的返回值是DWORD。常常用来判断某个方法执行的时间,其函数原型是DWORD GetTickCount(void),返回值以32位的双字类型DWORD存储,因此可以存储的最大值是(2^32-1) ms约为49.71天,因此若系统运行时间超过49.71天时,这个数就会归0,MSDN中也明确的提到了:"Retrieves the number of milliseconds that have elapsed since the system was started, up to 49.7 days."。因此,如果是编写服务器端程序,此处一定要万分注意,避免引起意外的状况。
    特别注意:这个函数并非实时发送,而是由系统每18ms发送一次,因此其最小精度为18ms。当需要有小于18ms的精度计算时,应使用StopWatch方法进行。

    使用clock计算时间差:

    [cpp] view plain copy
     
    1. #include <time.h>    
    2. #include <stdio.h>    
    3. int main()    
    4. {    
    5.     double start,end,cost;    
    6.     start=clock();    
    7.     sleep(1);    
    8.     end=clock();    
    9.     cost=end-start;    
    10.     printf("%f/n",cost);    
    11.     return 0;    
    12. }    

    使用GetTickCount计算时间差:

    [cpp] view plain copy
     
    1. #include <iostream>    
    2. #include <windows.h>    
    3. using namespace std;    
    4. int main()    
    5. {    
    6.     double start = GetTickCount();    
    7.     Sleep(1000);    
    8.     double  end=GetTickCount();    
    9.     cout << "GetTickCount:" << end-start << endl;    
    10.         return 0;    
    11. }    

    可以得出结论:clock比GetTickCount具有更高的精度,所以如果需要更高精度的时间差,则建议使用clock。在程序耗时统计时,可以使用clock来帮助完成时间差的计算。

    三、如果需要更高的时间精度(比如说服务器程序的耗时统计),可以在开始计时统计前先调用QueryPerformanceFrequency()函数获得机器内部计时器的时钟频率,接着在需要严格计时的事件发生前和发生之后分别调用QueryPerformanceCounter(),利用两次获得的计数之差和时钟频率,就可以计算出事件经历的精确时间(精度可以达到微秒级别)。下面是示例代码:

    [cpp] view plain copy
     
    1. #include <windows.h>  
    2. #include <iostream>  
    3.   
    4. int main()  
    5. {  
    6.     LARGE_INTEGER timeStart;    //开始时间  
    7.     LARGE_INTEGER timeEnd;      //结束时间  
    8.   
    9.     LARGE_INTEGER frequency;    //计时器频率  
    10.     QueryPerformanceFrequency(&frequency);  
    11.     double quadpart = (double)frequency.QuadPart;//计时器频率  
    12.   
    13.     QueryPerformanceCounter(&timeStart);  
    14.     Sleep(1000);//延时一秒  
    15.     QueryPerformanceCounter(&timeEnd);  
    16.   
    17.     //得到两个时间的耗时  
    18.     double elapsed = (timeEnd.QuadPart - timeStart.QuadPart) / quadpart;  
    19.     std::cout << elapsed << std::endl;//单位为秒,精度为微秒(1000000/cpu主频)  
    20.   
    21.     system("pause");  
    22.     return 0;  
    23. }  

    多运行几次,可以看到,每次Sleep耗费的时间都不一样,所以sleep的时间精度是很低的!

    https://blog.csdn.net/hellokandy/article/details/51330028

  • 相关阅读:
    设计模式总结
    字符编码小结
    搞定java.io
    将代码托管到GitHub上
    linuxlinux 路由表设置 之 route 指令详解 路由表设置 之 route 指令详解
    linux子系统的初始化_subsys_initcall()
    Linux系统目录结构介绍
    EtherType :以太网类型字段及值
    socket编程原理
    linux下的网络接口和网络桥接
  • 原文地址:https://www.cnblogs.com/findumars/p/8732306.html
Copyright © 2011-2022 走看看