Ubuntu,Kylin环境使用clock()函数设置延迟

一、Ubuntu操作系统中,直接在main中测试clock()设置延迟功能

代码描述:直接在main中使用clock()函数设置200ms延迟。

代码输出: 实现了200ms的延迟。

cpp 复制代码
#include <time.h>
#include <sys/time.h>
#include <stdio.h>
#include <string.h>
#include <stdlib.h>

int main()
{
    unsigned long tick_start, tick_current, tick_start_i;
    tick_start = clock();
    tick_current = clock();

    struct timeval tv;
    gettimeofday(&tv, NULL);
    long long milliseconds = tv.tv_sec * 1000LL + tv.tv_usec / 1000;
    printf("current time in milliseconds: %lld, %lld\n", milliseconds, (long long int)CLOCKS_PER_SEC);

    while(tick_current - tick_start < (200 * CLOCKS_PER_SEC / 1000))
    {
        tick_current = clock();
    }

    gettimeofday(&tv, NULL);
    long long milliseconds2 = tv.tv_sec * 1000LL + tv.tv_usec / 1000;
    printf("current time in milliseconds: %lld\n", milliseconds2);
    printf("eclipsed time is : %lld\n", milliseconds2 - milliseconds);

    return 0;
}

打印输出如下:

二、Ubuntu操作系统中,在子线程中使用clock()函数设置延迟

需求:在main函数中,创建线程,在线程中通过clock()函数设置200ms延迟,并在延迟前后通过gettimeofday()函数打印时间。

输出:经过打印测试,程序输出却是100ms的延迟。

原因:clock()函数在C/C++中是用于测量程序执行的时间,它返回的是从程序启动到调用clock()函数时CPU时间(以时钟周期为单位),该时间并不特指哪个线程,而是整个进程所消耗的CPU时间。因此在子线程中虽然设置了200ms的时钟周期延迟,但是却是包含主线程和子线程一共消耗的CPU时钟,也就是主线程消耗了100ms的时钟周期,子线程消耗了100ms的时钟周期,一共200ms的时钟周期,但是实际上只过去了100ms的时间。

cpp 复制代码
#include <time.h>
#include <sys/time.h>
#include <sys/types.h>
#include <sys/stat.h>
#include <unistd.h>
#include <stdio.h>
#include <string.h>
#include <fcntl.h>
#include <stdlib.h>
#include <errno.h>
#include <assert.h>
#include <string.h>
#include <pthread.h>


void* thread1(void * a)
{
    unsigned long tick_start, tick_current, tick_start_i;
    tick_start = clock();
    tick_current = clock();

    struct timeval tv;

    gettimeofday(&tv, NULL);
    long long milliseconds = tv.tv_sec * 1000LL + tv.tv_usec / 1000;
    printf("current time in milliseconds: %lld, %lld\n", milliseconds, (long long int)CLOCKS_PER_SEC);

    while(tick_current - tick_start < (200 * CLOCKS_PER_SEC / 1000))
    {
        tick_current = clock();
    }


    gettimeofday(&tv, NULL);
    long long milliseconds2 = tv.tv_sec * 1000LL + tv.tv_usec / 1000;
    printf("current time in milliseconds: %lld\n", milliseconds2);
    printf("eclipsed time is : %lld\n", milliseconds2 - milliseconds);
}


int main()
{
    pthread_t id1;
    int ret = pthread_create(&id1,NULL, thread1, (void *)NULL);
    if(ret!=0){
        printf ("Create pthread error!\n");
    }

    int i = 0;
    while(1)
    {
        i += 1;
    }

    return 0;
}

打印输出如下:

注:如果将main中while部分代码替换为pthread_join和sleep方式,则子线程中延迟仍为200ms,这是因为此时主线程并未消耗CPU资源。

源代码:

cpp 复制代码
int i = 0;
while(1)
{
    i += 1;
}

替换1:

cpp 复制代码
pthread_join(id1,NULL);

替换2:

cpp 复制代码
sleep(10);
相关推荐
君鼎1 小时前
C++设计模式——单例模式
c++·单例模式·设计模式
刚入门的大一新生2 小时前
C++初阶-string类的模拟实现与改进
开发语言·c++
小冯的编程学习之路3 小时前
【软件测试】:推荐一些接口与自动化测试学习练习网站(API测试与自动化学习全攻略)
c++·selenium·测试工具·jmeter·自动化·测试用例·postman
C++ 老炮儿的技术栈4 小时前
什么是函数重载?为什么 C 不支持函数重载,而 C++能支持函数重载?
c语言·开发语言·c++·qt·算法
猪八戒1.04 小时前
C++ 回调函数和Lambda表达式
c++
源远流长jerry5 小时前
匿名函数lambda、STL与正则表达式
c++
tan180°6 小时前
Linux进程信号处理(26)
linux·c++·vscode·后端·信号处理
一只鱼^_6 小时前
牛客练习赛138(首篇万字题解???)
数据结构·c++·算法·贪心算法·动态规划·广度优先·图搜索算法
李匠20247 小时前
C++GO语言微服务之Dockerfile && docker-compose②
c++·容器
2301_803554527 小时前
c++和c的不同
java·c语言·c++