Ubuntu,Kylin环境使用clock()函数设置延迟

一、Ubuntu操作系统中,直接在main中测试clock()设置延迟功能

代码描述:直接在main中使用clock()函数设置200ms延迟。

代码输出: 实现了200ms的延迟。

cpp 复制代码
#include <time.h>
#include <sys/time.h>
#include <stdio.h>
#include <string.h>
#include <stdlib.h>

int main()
{
    unsigned long tick_start, tick_current, tick_start_i;
    tick_start = clock();
    tick_current = clock();

    struct timeval tv;
    gettimeofday(&tv, NULL);
    long long milliseconds = tv.tv_sec * 1000LL + tv.tv_usec / 1000;
    printf("current time in milliseconds: %lld, %lld\n", milliseconds, (long long int)CLOCKS_PER_SEC);

    while(tick_current - tick_start < (200 * CLOCKS_PER_SEC / 1000))
    {
        tick_current = clock();
    }

    gettimeofday(&tv, NULL);
    long long milliseconds2 = tv.tv_sec * 1000LL + tv.tv_usec / 1000;
    printf("current time in milliseconds: %lld\n", milliseconds2);
    printf("eclipsed time is : %lld\n", milliseconds2 - milliseconds);

    return 0;
}

打印输出如下:

二、Ubuntu操作系统中,在子线程中使用clock()函数设置延迟

需求:在main函数中,创建线程,在线程中通过clock()函数设置200ms延迟,并在延迟前后通过gettimeofday()函数打印时间。

输出:经过打印测试,程序输出却是100ms的延迟。

原因:clock()函数在C/C++中是用于测量程序执行的时间,它返回的是从程序启动到调用clock()函数时CPU时间(以时钟周期为单位),该时间并不特指哪个线程,而是整个进程所消耗的CPU时间。因此在子线程中虽然设置了200ms的时钟周期延迟,但是却是包含主线程和子线程一共消耗的CPU时钟,也就是主线程消耗了100ms的时钟周期,子线程消耗了100ms的时钟周期,一共200ms的时钟周期,但是实际上只过去了100ms的时间。

cpp 复制代码
#include <time.h>
#include <sys/time.h>
#include <sys/types.h>
#include <sys/stat.h>
#include <unistd.h>
#include <stdio.h>
#include <string.h>
#include <fcntl.h>
#include <stdlib.h>
#include <errno.h>
#include <assert.h>
#include <string.h>
#include <pthread.h>


void* thread1(void * a)
{
    unsigned long tick_start, tick_current, tick_start_i;
    tick_start = clock();
    tick_current = clock();

    struct timeval tv;

    gettimeofday(&tv, NULL);
    long long milliseconds = tv.tv_sec * 1000LL + tv.tv_usec / 1000;
    printf("current time in milliseconds: %lld, %lld\n", milliseconds, (long long int)CLOCKS_PER_SEC);

    while(tick_current - tick_start < (200 * CLOCKS_PER_SEC / 1000))
    {
        tick_current = clock();
    }


    gettimeofday(&tv, NULL);
    long long milliseconds2 = tv.tv_sec * 1000LL + tv.tv_usec / 1000;
    printf("current time in milliseconds: %lld\n", milliseconds2);
    printf("eclipsed time is : %lld\n", milliseconds2 - milliseconds);
}


int main()
{
    pthread_t id1;
    int ret = pthread_create(&id1,NULL, thread1, (void *)NULL);
    if(ret!=0){
        printf ("Create pthread error!\n");
    }

    int i = 0;
    while(1)
    {
        i += 1;
    }

    return 0;
}

打印输出如下:

注:如果将main中while部分代码替换为pthread_join和sleep方式,则子线程中延迟仍为200ms,这是因为此时主线程并未消耗CPU资源。

源代码:

cpp 复制代码
int i = 0;
while(1)
{
    i += 1;
}

替换1:

cpp 复制代码
pthread_join(id1,NULL);

替换2:

cpp 复制代码
sleep(10);
相关推荐
霁月风38 分钟前
设计模式——适配器模式
c++·适配器模式
jrrz08281 小时前
LeetCode 热题100(七)【链表】(1)
数据结构·c++·算法·leetcode·链表
不是笨小孩i1 小时前
开源AI图片处理工具HivisionIDPhotos安装与证件照制作指南
ubuntu
咖啡里的茶i1 小时前
Vehicle友元Date多态Sedan和Truck
c++
海绵波波1071 小时前
Webserver(4.9)本地套接字的通信
c++
@小博的博客1 小时前
C++初阶学习第十弹——深入讲解vector的迭代器失效
数据结构·c++·学习
lihuhelihu2 小时前
第3章 CentOS系统管理
linux·运维·服务器·计算机网络·ubuntu·centos·云计算
爱吃喵的鲤鱼2 小时前
linux进程的状态之环境变量
linux·运维·服务器·开发语言·c++
7年老菜鸡3 小时前
策略模式(C++)三分钟读懂
c++·qt·策略模式
Ni-Guvara3 小时前
函数对象笔记
c++·算法