pthread_cond_timedwait时间设置

最近工做中须要在ACodec中起一个pthread,并每间隔100ms统计一次buffer的状态,在程序中使用pthread_cond_timedwait来设置时间间隔,但在使用中发现当超时时间设置成1秒如下的值时,没法获得想要的效果,具体表现为,没有wait足够的时间就被唤醒,且返回值正确。函数

查看pthread_cond_timedwait的函数原型:spa

1 int pthread_cond_timedwait(pthread_cond_t *cond_interface,
2                            pthread_mutex_t * mutex,
3                            const timespec *abstime)

abstime是一个绝对时间,struct timespce的原型为:code

1 struct timespec {
2   time_t tv_sec;    /* Seconds */
3   long tv_nsec;     /* Nanoseconds */
4 };

其中tv_sec是秒,tv_nsec是纳秒(即1000,000,000分之一秒).blog

首先看一下我以前错误的代码:get

1 long timeout_ms = 100; // wait time 100ms
2 struct timespec abstime;
3 abstime.tv_sec = time(NULL) + timeout_ms / 1000;
4 abstime.tv_nsec = (timeout_ms % 1000) * 1000000;
5 pthread_cond_timedwait(&cond, &mutex, &abstime);

以上代码有问题,主要是由于time(NULL)的返回结果的精度是秒级的,那么若是当前时间是m秒+n毫秒,那么实际等待的时间只是timeout_ms – n,且还有可能发生n > timeout_ms的状况,这种情形下,若是这段代码处在一处while循环内,则会形成大量的pthread_cond_timedwait系统调用,并形成大量的context switch,系统CPU会占用很高。原型

正确的代码应该改成以下:it

1 struct timespec abstime;
2 struct timeval now;
3 long timeout_ms = 100; // wait time 100ms
4 gettimeofday(&now, NULL);
5 long nsec = now.tv_usec * 1000 + (timeout_ms % 1000) * 1000000;
6 abstime.tv_sec=now.tv_sec + nsec / 1000000000 + timeout_ms / 1000;
7 abstime.tv_nsec=nsec % 1000000000;
8 pthread_cond_timedwait(&cond, &mutex, &abstime); 

经过gettimeofday得到精确到微秒(1000,000分之一秒)的时间数据,并处理不足一秒加上超时时间超过一秒的状况(即tv_sec上须要加上nsec/1000000000)。class

相关文章
相关标签/搜索