假设服务器的硬件资源“充裕”,那么提高服务器性能的一个很直接的方法就是空间换时间,即“浪费”服务器的硬件资源,以换取其运行效率。提升服务器性能的一个重要方法就是采用“池”的思路,即对一组资源在服务器启动之初就被完全创建好并初始化,这称为静态资源分配。当服务器进入正式运行阶段,即开始处理客户端请求时,如果它需要相关资源就可以直接从池中获取,无需动态分配。很显然,直接从池中取得所需要资源比动态分配资源的速度快得多,因为分配系统资源的系统调用都是很耗时的。当服务器处理完一个客户端连接后,可以把相关资源放回池中,无须执行系统调用释放资源。从最终效果来看,资源分配和回收的系统调用只发生在服务器的启动和结束,这种“池”的方式避免了中间的任务处理过程对内核的频繁访问,提高了服务器的性能。我们常用的线程池和内存池都是基于以上“池”的优势所设计出来的提升服务器性能的方法,今天打算以C++98设计一个基于Linux系统的简单线程池。
为什么要采用线程池?
首先想一想,我们一般的服务器都是动态创建子线程来实现并发服务器的,比如每当有一个客户端请求建立连接时我们就动态调用pthread_create去创建线程去处理该连接请求。这种模式有什么缺点呢?
- 动态创建线程是比较费时的,这将到导致较慢的客户响应。
- 动态创建的子线程通常只用来为一个客户服务,这将导致系统上产生大量的细微线程,线程切换也会耗费CPU时间。
所以我们为了进一步提升服务器性能,可以采取“池”的思路,把线程的创建放在程序的初始化阶段一次完成,这就避免了动态创建线程导致服务器响应请求的性能下降。
线程池的设计思路
- 以单例模式设计线程池,保证线程池全剧唯一;
- 在获取线程池实例进行线程池初始化:线程预先创建+任务队列创建;
- 创建一个任务类,我们真实的任务会继承该类,完成任务执行。
根据以上思路我们可以给出这么一个线程池类的框架:
class ThreadPool
{
private:
std::queue<Task*> taskQueue; //任务队列
bool isRunning; //线程池运行标志
pthread_t* pThreadSet; //指向线程id集合的指针
int threadsNum; //线程数目
pthread_mutex_t mutex; //互斥锁
pthread_cond_t condition; //条件变量
//单例模式,保证全局线程池只有一个
ThreadPool(int num=10);
void createThreads(); //创建内存池
void clearThreads(); //回收线程
void clearQueue(); //清空任务队列
static void* threadFunc(void* arg);
Task* takeTask(); //工作线程获取任务
public:
void addTask(Task* pTask); //任务入队
static ThreadPool* createThreadPool(int num=10); //静态方法,用于创建线程池实例
~ThreadPool();
int getQueueSize(); //获取任务队列中的任务数目
int getThreadlNum(); //获取线程池中线程总数目
};
下面开始讲解一些实现细节。
1.单例模式下的线程池的初始化
首先我们以饿汉单例模式来设计这个线程池,以保证该线程池全局唯一:
- 构造函数私有化
- 提供一个静态函数来获取线程池对象
//饿汉模式,线程安全
ThreadPool* ThreadPool::createThreadPool(int num)
{
static ThreadPool* pThreadPoolInstance = new ThreadPool(num);
return pThreadPoolInstance;
}
ThreadPool* pMyPool = ThreadPool::createThreadPool(5);
线程池对象初始化时我们需要做三件事:相关变量的初始化(线程池状态、互斥锁、条件变量等)+任务队列的创建+线程预先创建
ThreadPool::ThreadPool(int num):threadsNum(num)
{
printf("creating threads pool...\n");
isRunning = true;
pthread_mutex_init(&mutex, NULL);
pthread_cond_init(&condition, NULL);
createThreads();
printf("created threads pool successfully!\n");
}
线程池的数目根据对象创建时输入的数目来创建,如果不指定数目,我们就是使用默认数目10个。
void ThreadPool::createThreads()
{
pThreadSet = (pthread_t*)malloc(sizeof(pthread_t) * threadsNum);
for(int i=0;i<threadsNum;i++)
{
pthread_create(&pThreadSet[i], NULL, threadFunc, this);
}
}
2.任务添加和线程调度
对于每一个服务请求我们都可以看作是一个任务,一个任务来了我们就将它送进线程池中的任务队列中,并通过条件变量的方式通知线程池中的空闲线程去拿任务去完成。那问题来了,这里的任务在编程的层面上看到底是什么?我们可以将任务看成是一个回调函数,将要执行的函数指针往任务队列里面送就可以了,我们线程拿到这个指针后运行该函数就等于完成服务请求。基于以上的考虑,我们设计了一个单独的抽象任务类,让子类继承。类里面有个纯虚函数run(),用于执行相应操作。
考虑到回调函数需要传参数进来,所以特意设置了个指针arg来存储参数地址,到时候我们就可以根据该指针解析出传入的函数实参是什么了。
任务基类
class Task
{
public:
Task(void* a = NULL): arg(a)
{
}
void SetArg(void* a)
{
arg = a;
}
virtual int run()=0;
protected:
void* arg;
};
typedef struct
{
int task_id;
std::string task_name;
}msg_t;
class MyTask: public Task
{
public:
int run()
{
msg_t* msg = (msg_t*)arg;
printf("working thread[%lu] : task_id:%d task_name:%s\n", pthread_self(),
msg->task_id, msg->task_name.c_str());
sleep(10);
return 0;
}
};
真正使用该类时就自己定义一个子类继承Task类,并实现run()函数,并通过SetArg()方法去设置传入的参数。比如可以这么用:
msg_t msg[10];
MyTask task_A[10];
//模拟生产者生产任务
for(int i=0;i<10;i++)
{
msg[i].task_id = i;
sprintf(buf,"qq_task_%d",i);
msg[i].task_name = buf;
task_A[i].SetArg(&msg[i]);
pMyPool->addTask(&task_A[i]);
sleep(1);
}
现在来到线程池设计中最难搞的地方:线程调度。一个任务来了,究竟怎么让空闲线程去拿任务去做呢?我们又如何保证空闲的线程不断地去拿任务呢?
抽象而言,这是一个生产者消费者的模型,系统不断往任务队列里送任务,我们通过互斥锁和条件变量来控制任务的加入和获取,线程每当空闲时就会去调用takeTask()去拿任务。如果队列没任务那么一些没获得互斥锁的线程就会拥塞等待(因为没锁),获得互斥锁的那个线程会因为没任务而拥塞等待。一旦有任务就会唤醒这个带锁线程拿走任务释放互斥锁。看看代码层面是如何操作的:
加入一个任务
void ThreadPool::addTask(Task* pTask)
{
pthread_mutex_lock(&mutex);
taskQueue.push(pTask);
printf("one task is put into queue! Current queue size is %lu\n",taskQueue.size());
pthread_mutex_unlock(&mutex);
pthread_cond_signal(&condition);
}
取走一个任务
Task* ThreadPool::takeTask()
{
Task* pTask = NULL;
while(!pTask)
{
pthread_mutex_lock(&mutex);
//线程池运行正常但任务队列为空,那就等待任务的到来
while(taskQueue.empty() && isRunning)
{
pthread_cond_wait(&condition, &mutex);
}
if(!isRunning)
{
pthread_mutex_unlock(&mutex);
break;
}
else if(taskQueue.empty())
{
pthread_mutex_unlock(&mutex);
continue;
}
pTask = taskQueue.front();
taskQueue.pop();
pthread_mutex_unlock(&mutex);
}
return pTask;
}
线程中的回调函数。这里注意的是,如果取到的任务为空,我们认为是线程池关闭的信号(线程池销毁时我们会在析构函数中调用pthread_cond_broadcast(&condition)来通知线程来拿任务,拿到的当然是空指针),我们退出该线程。
void* ThreadPool::threadFunc(void* arg)
{
ThreadPool* p = (ThreadPool*)arg;
while(p->isRunning)
{
Task* task = p->takeTask();
//如果取到的任务为空,那么我们结束这个线程
if(!task)
{
//printf("%lu thread will shutdown!\n", pthread_self());
break;
}
printf("take one...\n");
task->run();
}
}
3.使用例子和测试
下面给出一个线程池的一个使用例子。可以看出,我首先定义了msg_t的结构体,这是因为我们的服务响应函数是带参数的,所以我们定义了这个结构体并把其地址作为参数传进线程池中去(通过SetArg方法)。然后我们也定义了一个任务类MyTask继承于Task,并重写了run方法。我们要执行的服务函数就可以写在run函数之中。当需要往任务队列投放任务时调用addTask()就可以了,然后线程池会自己安排任务的分发,外界无须关心。所以一个线程池执行任务的过程可以简化为:createThreadPool() -> SetArg() -> addTask -> while(1) -> delete pMyPool
#include <stdio.h>
#include "thread_pool.h"
#include <string>
#include <stdlib.h>
typedef struct
{
int task_id;
std::string task_name;
}msg_t;
class MyTask: public Task
{
public:
int run()
{
msg_t* msg = (msg_t*)arg;
printf("working thread[%lu] : task_id:%d task_name:%s\n", pthread_self(),
msg->task_id, msg->task_name.c_str());
sleep(10);
return 0;
}
};
int main()
{
ThreadPool* pMyPool = ThreadPool::createThreadPool(5);
char buf[32] = {0};
msg_t msg[10];
MyTask task_A[10];
//模拟生产者生产任务
for(int i=0;i<10;i++)
{
msg[i].task_id = i;
sprintf(buf,"qq_task_%d",i);
msg[i].task_name = buf;
task_A[i].SetArg(&msg[i]);
pMyPool->addTask(&task_A[i]);
sleep(1);
}
while(1)
{
//printf("there are still %d tasks need to process\n", pMyPool->getQueueSize());
if (pMyPool->getQueueSize() == 0)
{
printf("Now I will exit from main\n");
break;
}
sleep(1);
}
delete pMyPool;
return 0;
}
程序具体运行的逻辑是,我们建立了一个5个线程大小的线程池,然后我们又生成了10个任务,往任务队列里放。由于线程数小于任务数,所以当每个线程都拿到自己的任务时,任务队列中还有5个任务待处理,然后有些线程处理完自己的任务了,又去队列里取任务,直到所有任务被处理完了,循环结束,销毁线程池,退出程序。
完整的线程池框架和测试例子在我的github。