Linux线程同步:高速缓存

一、线程同步的概念

Linux线程同步:高速缓存

线程同步?怎么同步?一起运行?一起停止?我当年听说线程同步这个词的时候,也是一头雾水。

在人们的日常生活中的锁大概有两种:一种是不允许访问;另一种是资源忙,同一时间只允许一个使用者占用,其它使用者必须要等待。

1)不允许访问的锁容易理解,就像每家每户的门锁,不允许外人进入。

2)第二种锁,例如火车上的厕所,它是公共的,空闲的时候任何人可以进入,人进去以后就会把它锁起来,其它的人如果要上厕所,必须等待解锁,即里面的人出来。还有红绿灯,红灯是加锁,绿灯是解锁。

对多线程来说,资源是共享的,基本上不存在不允许访问的情况,但是,共享的资源在某一时间点只能有一个线程占用,所以需要给资源加锁。

不知道是什么人采用了线程同步这个词,如果让我的命名,我会定义为线程锁,锁线程吗?不是,是锁共享资源,线程给共享资源加的锁。

线程的锁的种类有互斥锁、读写锁、条件变量、自旋锁、信号灯。

在本章节中,只介绍互斥锁,其它的锁应用场景复杂,开发难度很大,不合适初学者。

二、互斥锁

互斥锁机制是同一时刻只允许一个线程占有共享的资源。

Linux线程同步:高速缓存

1、初始化锁

int pthread_mutex_init(pthread_mutex_t *mutex,const pthread_mutex_attr_t *mutexattr);

其中参数 mutexattr 用于指定锁的属性(见下),如果为NULL则使用缺省属性。

互斥锁的属性在创建锁的时候指定,当资源被某线程锁住的时候,其它的线程在试图加锁时表现将不同。当前有四个值可供选择:

1)PTHREAD_MUTEX_TIMED_NP,这是缺省值,也就是普通锁。当一个线程加锁以后,其余请求锁的线程将形成一个等待队列,并在解锁后按优先级获得锁。这种锁策略保证了资源分配的公平性。

2)PTHREAD_MUTEX_RECURSIVE_NP,嵌套锁,允许同一个线程对同一个锁成功获得多次,并通过多次unlock解锁。

3)PTHREAD_MUTEX_ERRORCHECK_NP,检错锁,如果同一个线程请求同一个锁,则返回EDEADLK,否则与PTHREAD_MUTEX_TIMED_NP类型动作相同。

4)PTHREAD_MUTEX_ADAPTIVE_NP,适应锁,动作最简单的锁类型,等待解锁后重新竞争。

2、阻塞加锁

int pthread_mutex_lock(pthread_mutex *mutex);

如果是锁是空闲状态,本线程将获得这个锁;如果锁已经被占据,本线程将排队等待,直到成功的获取锁。

3、非阻塞加锁

int pthread_mutex_trylock( pthread_mutex_t *mutex);

该函数语义与 pthread_mutex_lock() 类似,不同的是在锁已经被占据时立即返回 EBUSY,不是挂起等待。

4、解锁

int pthread_mutex_unlock(pthread_mutex *mutex);

线程把自己持有的锁释放。

5、销毁锁(此时锁必需unlock状态,否则返回EBUSY)

int pthread_mutex_destroy(pthread_mutex *mutex);

销毁锁之前,锁必需是空闲状态(unlock)。

三、示例程序

多线程可以共享资源(变量和对象),对编程带来了方便,但是某些对象虽然可以共享,但在同一个时间只能由一个线程使用,多个线程同时使用会产生冲突,例如socket连接,数据库连接池。

我们把前几章节的socket客户端程序book247.cpp修改为多线程。

示例(book263.cpp)

#include <stdio.h>
#include <string.h>
#include <unistd.h>
#include <netdb.h>
#include <sys/types.h>
#include <sys/socket.h>
#include <arpa/inet.h>
#include <pthread.h>
 
//xx pthread_mutex_t mutex; // 申明一个互斥锁
 
// 与客户端通信线程的主函数
void *pth_main(void *arg)
{
  int pno=(long)arg;   // 线程编号
 
  pthread_detach(pthread_self());
 
  char strbuffer[1024];
 
  for (int ii=0;ii<3;ii++)    // 与服务端进行3次交互。
  {
    //xx pthread_mutex_lock(&mutex);  // 加锁
    memset(strbuffer,0,sizeof(strbuffer));
    sprintf(strbuffer,"线程%d:这是第%d个超级女生,编号%03d。",pno,ii+1,ii+1);
    if (TcpClient.Send(strbuffer,strlen(strbuffer))<=0) break;
    printf("发送:%s\n",strbuffer);
 
    memset(strbuffer,0,sizeof(strbuffer));
    if (TcpClient.Recv(strbuffer,sizeof(strbuffer))<=0) break;
    printf("线程%d接收:%s\n",pno,strbuffer);
    //xx pthread_mutex_unlock(&mutex);  // 释放锁
    // usleep(100);   // usleep(100),否则其它的线程无法获得锁。
  }
 
  pthread_exit(0);
}
 
int main()
{
  // 向服务器发起连接请求
  if (TcpClient.ConnectToServer("172.16.0.15",5051)==false)
  { printf("TcpClient.ConnectToServer(\"172.16.0.15\",5051) failed,exit...\n"); return -1; }
 
  //xx pthread_mutex_init(&mutex,0); // 创建锁
 
  pthread_t pthid1,pthid2;
  pthread_create(&pthid1,NULL,pth_main,(void*)1);   // 创建第一个线程
  pthread_create(&pthid2,NULL,pth_main,(void*)2);   // 创建第二个线程
 
  pthread_join(pthid1,NULL);    // 等待线程1退出。
  pthread_join(pthid2,NULL);    // 等待线程2退出。
 
  //xx pthread_mutex_lock(&mutex);   // 销毁锁
}

在book263.cpp程序中,客户端成功连上服务器后,创建两个线程,同时与服务端进行通信,发送3个请求报文并接收服务端的回应。

book263.cpp暂时不启用锁,先试试效果。

启动服务端程序book261,然后再启动book263。

运行效果

Linux线程同步:高速缓存

大家仔细研究一下book263运行的结果,可以发现客户端的两个线程的报文收发出现了混乱。

把book263.cpp的线程锁代码启用,编译运行。

运行效果

Linux线程同步:高速缓存

非常棒,这正在我们想要的结果。

四、条件变量

Linux线程同步:高速缓存

四、条件变量 与互斥锁

Linux线程同步:高速缓存

五、生产者和消费者模型:互斥锁和条件变量来实现(高速缓存)

1、如果在一个循环里面加锁或者解锁,应该usleep,否则该线程会处理所有数据;

2、如果条件触发是signal,只有一个线程会被唤醒去处理数据,但是broadcast所有线程会被唤醒去处理数据;

3、pthread_cond_broadcast应该尽量在解锁的外面,而且加锁或者解锁时间越短越好;

Linux线程同步:高速缓存 Linux线程同步:高速缓存

 六、信号量Linux线程同步:高速缓存

Linux线程同步:高速缓存

  七、信号量

Linux线程同步:高速缓存

 Linux线程同步:高速缓存

 八、读写锁

Linux线程同步:高速缓存

Linux线程同步:高速缓存

 Linux线程同步:高速缓存

 

 

 

上一篇:linux--(2)线程的清理


下一篇:tlpi:线程取消(pthread_cancel...)