Ubuntu,Kylin环境使用clock()函数设置延迟

一、Ubuntu操作系统中,直接在main中测试clock()设置延迟功能

代码描述:直接在main中使用clock()函数设置200ms延迟。

代码输出: 实现了200ms的延迟。

cpp 复制代码
#include <time.h>
#include <sys/time.h>
#include <stdio.h>
#include <string.h>
#include <stdlib.h>

int main()
{
    unsigned long tick_start, tick_current, tick_start_i;
    tick_start = clock();
    tick_current = clock();

    struct timeval tv;
    gettimeofday(&tv, NULL);
    long long milliseconds = tv.tv_sec * 1000LL + tv.tv_usec / 1000;
    printf("current time in milliseconds: %lld, %lld\n", milliseconds, (long long int)CLOCKS_PER_SEC);

    while(tick_current - tick_start < (200 * CLOCKS_PER_SEC / 1000))
    {
        tick_current = clock();
    }

    gettimeofday(&tv, NULL);
    long long milliseconds2 = tv.tv_sec * 1000LL + tv.tv_usec / 1000;
    printf("current time in milliseconds: %lld\n", milliseconds2);
    printf("eclipsed time is : %lld\n", milliseconds2 - milliseconds);

    return 0;
}

打印输出如下:

二、Ubuntu操作系统中,在子线程中使用clock()函数设置延迟

需求:在main函数中,创建线程,在线程中通过clock()函数设置200ms延迟,并在延迟前后通过gettimeofday()函数打印时间。

输出:经过打印测试,程序输出却是100ms的延迟。

原因:clock()函数在C/C++中是用于测量程序执行的时间,它返回的是从程序启动到调用clock()函数时CPU时间(以时钟周期为单位),该时间并不特指哪个线程,而是整个进程所消耗的CPU时间。因此在子线程中虽然设置了200ms的时钟周期延迟,但是却是包含主线程和子线程一共消耗的CPU时钟,也就是主线程消耗了100ms的时钟周期,子线程消耗了100ms的时钟周期,一共200ms的时钟周期,但是实际上只过去了100ms的时间。

cpp 复制代码
#include <time.h>
#include <sys/time.h>
#include <sys/types.h>
#include <sys/stat.h>
#include <unistd.h>
#include <stdio.h>
#include <string.h>
#include <fcntl.h>
#include <stdlib.h>
#include <errno.h>
#include <assert.h>
#include <string.h>
#include <pthread.h>


void* thread1(void * a)
{
    unsigned long tick_start, tick_current, tick_start_i;
    tick_start = clock();
    tick_current = clock();

    struct timeval tv;

    gettimeofday(&tv, NULL);
    long long milliseconds = tv.tv_sec * 1000LL + tv.tv_usec / 1000;
    printf("current time in milliseconds: %lld, %lld\n", milliseconds, (long long int)CLOCKS_PER_SEC);

    while(tick_current - tick_start < (200 * CLOCKS_PER_SEC / 1000))
    {
        tick_current = clock();
    }


    gettimeofday(&tv, NULL);
    long long milliseconds2 = tv.tv_sec * 1000LL + tv.tv_usec / 1000;
    printf("current time in milliseconds: %lld\n", milliseconds2);
    printf("eclipsed time is : %lld\n", milliseconds2 - milliseconds);
}


int main()
{
    pthread_t id1;
    int ret = pthread_create(&id1,NULL, thread1, (void *)NULL);
    if(ret!=0){
        printf ("Create pthread error!\n");
    }

    int i = 0;
    while(1)
    {
        i += 1;
    }

    return 0;
}

打印输出如下:

注:如果将main中while部分代码替换为pthread_join和sleep方式,则子线程中延迟仍为200ms,这是因为此时主线程并未消耗CPU资源。

源代码:

cpp 复制代码
int i = 0;
while(1)
{
    i += 1;
}

替换1:

cpp 复制代码
pthread_join(id1,NULL);

替换2:

cpp 复制代码
sleep(10);
相关推荐
BD_Marathon44 分钟前
Ubuntu:Mysql服务器
服务器·mysql·ubuntu
小刘同学3211 小时前
C++11 特性
c++·c11新特性
真的想上岸啊2 小时前
学习C++、QT---18(C++ 记事本项目的stylesheet)
开发语言·c++·学习
m0_552200822 小时前
《UE5_C++多人TPS完整教程》学习笔记40 ——《P41 装备(武器)姿势(Equipped Pose)》
c++·游戏·ue5
0wioiw02 小时前
Ubuntu基础(监控重启和查找程序)
linux·服务器·ubuntu
Tipriest_2 小时前
Ubuntu常用的软件格式deb, rpm, dmg, AppImage等打包及使用方法
linux·运维·ubuntu
GBXLUO2 小时前
windows的vscode无法通过ssh连接ubuntu的解决办法
vscode·ubuntu
丁劲犇2 小时前
用 Turbo Vision 2 为 Qt 6 控制台应用创建 TUI 字符 MainFrame
开发语言·c++·qt·tui·字符界面·curse
charlie1145141913 小时前
深入理解Qt的SetWindowsFlags函数
开发语言·c++·qt·原理分析