linux c/c++最高效的计时方法

每个cpu的core在执行指令(代码)的时候,身边有约30大悍将(寄存器)在辅做,比如最典型的EBP、ESP,当要发生运行空间切换(syscall、中断),这30个寄存器里的数据是不是都要存起来以待再切回来时恢复继续接着干;

几个问题:

什么时候存?

谁存?

存在哪?

什么时候恢复?

最主要这个过程耗时多久?本文syscal揭开耗时的面纱。

程序的大致要干的事;

对64MB 循环访问一把;

连续20次调用同一个syscall函数,并分别记录每次的耗时;

printf 20次的耗时;

循环以上三步骤;

main_syscall.c

#include <stdio.h>

#include <stdlib.h>

#include <ctype.h>

#include <unistd.h>

#include <sys/types.h>

#include "common.h"

#define LOOPCNT 20

#define BLOCKLEN 1000000

int g_aiData[BLOCKLEN][16];

int main(int argc, char ** argv)

{

int i;

long long t1, t2;

struct timespec stTP;

复制代码
long long aldiff[LOOPCNT] = { 0 };
int iTemp = 0;

while(1)
{
    for (i = 0; i < BLOCKLEN; i++) /* 64MB的内存先访问一把,把L1 L2 L3尽力刷一把 */
        g_aiData[i][0] = i;

    aldiff[0] = 0;
     
    for (i = 0; i < LOOPCNT; i++)
    {
        t1 = rte_rdtsc();  /* 直接从rdtsc寄存器取,注:这个是x86_64上的 */
        getnstime(&stTP);  /* 这个函数会走syscall进内核 */
        t2 = rte_rdtsc();
        aldiff[i] = t2 - t1;
    }
     
    printf("----------------------------\n");
    for (i = 0; i < LOOPCNT; i++)
    {
        printf("%d:%lld, ", i, aldiff[i]);
    }
    printf("\n");
}
 
return 0;

}

common.c

#include <sys/time.h>

#include <time.h>

#include <stdlib.h>

#include <stdio.h>

#include "common.h"

//typedef unsigned long long uint64_t;

long long getustime(void)

{

struct timeval tv;

long long ust;

复制代码
gettimeofday(&tv, NULL);
ust = ((long)tv.tv_sec)*1000000;
ust += tv.tv_usec;
return ust;

}

void getnstime(struct timespec pstTP)
{
clock_gettime(CLOCK_MONOTONIC_RAW, pstTP); /
这里带RAW的是会syscall进内核的 */

return;

}

long diff_nstime(struct timespec *pstTP1, struct timespec *pstTP2)

{

return (pstTP2->tv_sec - pstTP1->tv_sec)*1000000000 + pstTP2->tv_nsec - pstTP1->tv_nsec;

}

inline long long rte_rdtsc(void)

{

union {

long long tsc_64;

struct {

unsigned int lo_32;

unsigned int hi_32;

};

} tsc;

复制代码
asm volatile("rdtsc" :
         "=a" (tsc.lo_32),
         "=d" (tsc.hi_32));
return tsc.tsc_64;

}

common.h

#ifndef COMMON_H_

#define COMMON_H_

#define ERROR_SUCCESS 0

#define ERROR_FAIL 1

#define IN

#define OUT

#define INOUT

#define CACHE_LINE 64

//#define HASHSIZE 1*1024

typedef unsigned long ulong_t;

long long getustime(void);

void getnstime(struct timespec *pstTP);

long diff_nstime(struct timespec *pstTP1, struct timespec *pstTP2);

inline long long rte_rdtsc(void);

#endif

可以看出,每轮都是第1次耗时最长,约3000(计时单位是时钟周期)这个量级,后面接着的都是300,相差了近10倍;

为什么会是这样?

我们平常调的系统调用都是每轮第1次这个样子么?

相关推荐
不爱学英文的码字机器38 分钟前
持续交付的进化:从DevOps到AI驱动的IT新动能
运维·人工智能·devops
什么半岛铁盒40 分钟前
【Linux系统】Linux环境变量:系统配置的隐形指挥官
linux
Lw老王要学习1 小时前
Linux容器篇、第一章_02Rocky9.5 系统下 Docker 的持久化操作与 Dockerfile 指令详解
linux·运维·docker·容器·云计算
橙子小哥的代码世界1 小时前
【大模型RAG】Docker 一键部署 Milvus 完整攻略
linux·docker·大模型·milvus·向量数据库·rag
_可乐无糖2 小时前
EC2安装WebRTC sdk-c环境、构建、编译
服务器·webrtc·aws
斯普信专业组2 小时前
Kafka主题运维全指南:从基础配置到故障处理
运维·分布式·kafka
倔强的石头1062 小时前
【Linux指南】用户与系统基础操作
linux·运维·服务器
云上艺旅2 小时前
centos升级内核
linux·运维·centos
kaikaile19953 小时前
centos开启samba服务
linux·运维·centos
云上艺旅3 小时前
centos部署k8s v1.33版本
linux·云原生·kubernetes·centos