假设服务器的硬件资源“充裕”,那么提升服务器性能的一个很直接的方法就是空间换时间,即“浪费”服务器的硬件资源,以换取其运行效率。提高服务器性能的一个重要方法就是采用“池”的思路,即对一组资源在服务器启动之初就被彻底建立好并初始化,这称为静态资源分配。当服务器进入正式运行阶段,即开始处理客户端请求时,若是它须要相关资源就能够直接从池中获取,无需动态分配。很显然,直接从池中取得所须要资源比动态分配资源的速度快得多,由于分配系统资源的系统调用都是很耗时的。当服务器处理完一个客户端链接后,能够把相关资源放回池中,无须执行系统调用释放资源。从最终效果来看,资源分配和回收的系统调用只发生在服务器的启动和结束,这种“池”的方式避免了中间的任务处理过程对内核的频繁访问,提升了服务器的性能。咱们经常使用的线程池和内存池都是基于以上“池”的优点所设计出来的提高服务器性能的方法,今天打算以C++98设计一个基于Linux系统的简单线程池。git
首先想想,咱们通常的服务器都是动态建立子线程来实现并发服务器的,好比每当有一个客户端请求创建链接时咱们就动态调用pthread_create去建立线程去处理该链接请求。这种模式有什么缺点呢?github
因此咱们为了进一步提高服务器性能,能够采起“池”的思路,把线程的建立放在程序的初始化阶段一次完成,这就避免了动态建立线程致使服务器响应请求的性能降低。编程
根据以上思路咱们能够给出这么一个线程池类的框架:安全
class ThreadPool { private: std::queue<Task*> taskQueue; //任务队列 bool isRunning; //线程池运行标志 pthread_t* pThreadSet; //指向线程id集合的指针 int threadsNum; //线程数目 pthread_mutex_t mutex; //互斥锁 pthread_cond_t condition; //条件变量 //单例模式,保证全局线程池只有一个 ThreadPool(int num=10); void createThreads(); //建立内存池 void clearThreads(); //回收线程 void clearQueue(); //清空任务队列 static void* threadFunc(void* arg); Task* takeTask(); //工做线程获取任务 public: void addTask(Task* pTask); //任务入队 static ThreadPool* createThreadPool(int num=10); //静态方法,用于建立线程池实例 ~ThreadPool(); int getQueueSize(); //获取任务队列中的任务数目 int getThreadlNum(); //获取线程池中线程总数目 };
下面开始讲解一些实现细节。服务器
首先咱们以饿汉单例模式来设计这个线程池,以保证该线程池全局惟一:并发
//饿汉模式,线程安全 ThreadPool* ThreadPool::createThreadPool(int num) { static ThreadPool* pThreadPoolInstance = new ThreadPool(num); return pThreadPoolInstance; } ThreadPool* pMyPool = ThreadPool::createThreadPool(5);
线程池对象初始化时咱们须要作三件事:相关变量的初始化(线程池状态、互斥锁、条件变量等)+任务队列的建立+线程预先建立框架
ThreadPool::ThreadPool(int num):threadsNum(num) { printf("creating threads pool...\n"); isRunning = true; pthread_mutex_init(&mutex, NULL); pthread_cond_init(&condition, NULL); createThreads(); printf("created threads pool successfully!\n"); }
线程池的数目根据对象建立时输入的数目来建立,若是不指定数目,咱们就是使用默认数目10个。函数
void ThreadPool::createThreads() { pThreadSet = (pthread_t*)malloc(sizeof(pthread_t) * threadsNum); for(int i=0;i<threadsNum;i++) { pthread_create(&pThreadSet[i], NULL, threadFunc, this); } }
对于每个服务请求咱们均可以看做是一个任务,一个任务来了咱们就将它送进线程池中的任务队列中,并经过条件变量的方式通知线程池中的空闲线程去拿任务去完成。那问题来了,这里的任务在编程的层面上看究竟是什么?咱们能够将任务当作是一个回调函数,将要执行的函数指针往任务队列里面送就能够了,咱们线程拿到这个指针后运行该函数就等于完成服务请求。基于以上的考虑,咱们设计了一个单独的抽象任务类,让子类继承。类里面有个纯虚函数run(),用于执行相应操做。性能
考虑到回调函数须要传参数进来,因此特地设置了个指针arg来存储参数地址,到时候咱们就能够根据该指针解析出传入的函数实参是什么了。测试
任务基类
class Task { public: Task(void* a = NULL): arg(a) { } void SetArg(void* a) { arg = a; } virtual int run()=0; protected: void* arg; };
typedef struct { int task_id; std::string task_name; }msg_t; class MyTask: public Task { public: int run() { msg_t* msg = (msg_t*)arg; printf("working thread[%lu] : task_id:%d task_name:%s\n", pthread_self(), msg->task_id, msg->task_name.c_str()); sleep(10); return 0; } };
真正使用该类时就本身定义一个子类继承Task类,并实现run()函数,并经过SetArg()方法去设置传入的参数。好比能够这么用:
msg_t msg[10]; MyTask task_A[10]; //模拟生产者生产任务 for(int i=0;i<10;i++) { msg[i].task_id = i; sprintf(buf,"qq_task_%d",i); msg[i].task_name = buf; task_A[i].SetArg(&msg[i]); pMyPool->addTask(&task_A[i]); sleep(1); }
如今来到线程池设计中最难搞的地方:线程调度。一个任务来了,究竟怎么让空闲线程去拿任务去作呢?咱们又如何保证空闲的线程不断地去拿任务呢?
抽象而言,这是一个生产者消费者的模型,系统不断往任务队列里送任务,咱们经过互斥锁和条件变量来控制任务的加入和获取,线程每当空闲时就会去调用takeTask()去拿任务。若是队列没任务那么一些没得到互斥锁的线程就会拥塞等待(由于没锁),得到互斥锁的那个线程会由于没任务而拥塞等待。一旦有任务就会唤醒这个带锁线程拿走任务释放互斥锁。看看代码层面是如何操做的:
加入一个任务
void ThreadPool::addTask(Task* pTask) { pthread_mutex_lock(&mutex); taskQueue.push(pTask); printf("one task is put into queue! Current queue size is %lu\n",taskQueue.size()); pthread_mutex_unlock(&mutex); pthread_cond_signal(&condition); }
取走一个任务
Task* ThreadPool::takeTask() { Task* pTask = NULL; while(!pTask) { pthread_mutex_lock(&mutex); //线程池运行正常但任务队列为空,那就等待任务的到来 while(taskQueue.empty() && isRunning) { pthread_cond_wait(&condition, &mutex); } if(!isRunning) { pthread_mutex_unlock(&mutex); break; } else if(taskQueue.empty()) { pthread_mutex_unlock(&mutex); continue; } pTask = taskQueue.front(); taskQueue.pop(); pthread_mutex_unlock(&mutex); } return pTask; }
线程中的回调函数。这里注意的是,若是取到的任务为空,咱们认为是线程池关闭的信号(线程池销毁时咱们会在析构函数中调用pthread_cond_broadcast(&condition)来通知线程来拿任务,拿到的固然是空指针),咱们退出该线程。
void* ThreadPool::threadFunc(void* arg) { ThreadPool* p = (ThreadPool*)arg; while(p->isRunning) { Task* task = p->takeTask(); //若是取到的任务为空,那么咱们结束这个线程 if(!task) { //printf("%lu thread will shutdown!\n", pthread_self()); break; } printf("take one...\n"); task->run(); } }
下面给出一个线程池的一个使用例子。能够看出,我首先定义了msg_t的结构体,这是由于咱们的服务响应函数是带参数的,因此咱们定义了这个结构体并把其地址做为参数传进线程池中去(经过SetArg方法)。而后咱们也定义了一个任务类MyTask继承于Task,并重写了run方法。咱们要执行的服务函数就能够写在run函数之中。当须要往任务队列投听任务时调用addTask()就能够了,而后线程池会本身安排任务的分发,外界无须关心。因此一个线程池执行任务的过程能够简化为:createThreadPool() -> SetArg() -> addTask -> while(1) -> delete pMyPool
#include <stdio.h> #include "thread_pool.h" #include <string> #include <stdlib.h> typedef struct { int task_id; std::string task_name; }msg_t; class MyTask: public Task { public: int run() { msg_t* msg = (msg_t*)arg; printf("working thread[%lu] : task_id:%d task_name:%s\n", pthread_self(), msg->task_id, msg->task_name.c_str()); sleep(10); return 0; } }; int main() { ThreadPool* pMyPool = ThreadPool::createThreadPool(5); char buf[32] = {0}; msg_t msg[10]; MyTask task_A[10]; //模拟生产者生产任务 for(int i=0;i<10;i++) { msg[i].task_id = i; sprintf(buf,"qq_task_%d",i); msg[i].task_name = buf; task_A[i].SetArg(&msg[i]); pMyPool->addTask(&task_A[i]); sleep(1); } while(1) { //printf("there are still %d tasks need to process\n", pMyPool->getQueueSize()); if (pMyPool->getQueueSize() == 0) { printf("Now I will exit from main\n"); break; } sleep(1); } delete pMyPool; return 0; }
程序具体运行的逻辑是,咱们创建了一个5个线程大小的线程池,而后咱们又生成了10个任务,往任务队列里放。因为线程数小于任务数,因此当每一个线程都拿到本身的任务时,任务队列中还有5个任务待处理,而后有些线程处理完本身的任务了,又去队列里取任务,直到全部任务被处理完了,循环结束,销毁线程池,退出程序。
完整的线程池框架和测试例子在个人github。