今日概要:
1、异常处理使用
2、进程
3、paramiko模块使用
一、异常处理
1、常见的错误异常
#错误异常一
print(a) #NameError #错误异常二
int('sdadsds') #ValueError #错误异常三
a = {'a':1}
a['b'] #KeyError #错误异常四
1/0 #ZeroDivisionError
2、解释器返回错误异常内容如下:
3、在python中不同的异常可以有不同种类型(python中统一了类于类型,类型即类),去标识,不同的类对象标识不同的异常,一种异常标识一种错误
AttributeError 试图访问一个对象没有的树形,比如foo.x,但是foo没有属性x
IOError 输入/输出异常;基本上是无法打开文件
ImportError 无法引入模块或包;基本上是路径问题或名称错误
IndentationError 语法错误(的子类) ;代码没有正确对齐
IndexError 下标索引超出序列边界,比如当x只有三个元素,却试图访问x[5]
KeyError 试图访问字典里不存在的键
KeyboardInterrupt Ctrl+C被按下
NameError 使用一个还未被赋予对象的变量
SyntaxError Python代码非法,代码不能编译(个人认为这是语法错误,写错了)
TypeError 传入对象类型与要求的不符合
UnboundLocalError 试图访问一个还未被设置的局部变量,基本上是由于另有一个同名的全局变量,
导致你以为正在访问它
ValueError 传入一个调用者不期望的值,即使值的类型是正确的
常用异常
ArithmeticError
AssertionError
AttributeError
BaseException
BufferError
BytesWarning
DeprecationWarning
EnvironmentError
EOFError
Exception
FloatingPointError
FutureWarning
GeneratorExit
ImportError
ImportWarning
IndentationError
IndexError
IOError
KeyboardInterrupt
KeyError
LookupError
MemoryError
NameError
NotImplementedError
OSError
OverflowError
PendingDeprecationWarning
ReferenceError
RuntimeError
RuntimeWarning
StandardError
StopIteration
SyntaxError
SyntaxWarning
SystemError
SystemExit
TabError
TypeError
UnboundLocalError
UnicodeDecodeError
UnicodeEncodeError
UnicodeError
UnicodeTranslateError
UnicodeWarning
UserWarning
ValueError
Warning
ZeroDivisionError
更多异常
4、什么是异常处理?
python解释器检测到错误,触发异常(也允许程序员自己触发异常)
程序员编写特定的代码,专门用来捕捉这个异常(这段代码与程序逻辑无关,与异常处理有关)
如果捕捉成功则进入另外一个处理分支,执行你为其定制的逻辑,使程序不会崩溃,这就是异常处理
5、如何进行异常处理?
首先须知,异常是由程序的错误引起的,语法上的错误跟异常处理无关,必须在程序运行前就修正
num1=input('>>: ') #输入一个字符串试试
if num1.isdigit():
int(num1) #我们的正统程序放到了这里,其余的都属于异常处理范畴
elif num1.isspace():
print('输入的是空格,就执行我这里的逻辑')
elif len(num1) == 0:
print('输入的是空,就执行我这里的逻辑')
else:
print('其他情情况,执行我这里的逻辑') #第二段代码
# num2=input('>>: ') #输入一个字符串试试
# int(num2) #第三段代码
# num3=input('>>: ') #输入一个字符串试试
# int(num3) '''
问题一:
使用if的方式我们只为第一段代码加上了异常处理,针对第二段代码,你得重新写一堆if,elif等
第三段,你还得在写一遍,当然了,你说,可以合在一起啊,没错,你合起来看看,你的代码还能被看懂吗???
而这些if,跟你的代码逻辑并无关系,这就好比你在你心爱的程序中到处拉屎,拉到最后,谁都不爱看你的烂代码,为啥,因为可读性差,看不懂 问题二:
第一段代码和第二段代码实际上是同一种异常,都是ValueError,相同的错误按理说只处理一次就可以了,而用if,由于这二者if的条件不同,这只能逼着你重新写一个新的if来处理第二段代码的异常
第三段也一样
'''
用if去判断异常处理
总结:并不是以后遇到异常处理就用,try...except,if..else..判断本质上也是一种异常处理
6、python提供了一种异常处理的方法try..except..
1、基本语法:
try:
被检测的代码块
except 异常类型:
try中一旦检测到异常,就执行这个位置的逻辑
f=open('a.txt')
g=(line.strip() for line in f)
'''
next(g)会触发迭代f,依次next(g)就可以读取文件的一行行内容,无论文件a.txt有多大,同一时刻内存中只有一行内容。
提示:g是基于文件句柄f而存在的,因而只能在next(g)抛出异常StopIteration后才可以执行f.close()
''' f=open('a.txt') g=(line.strip() for line in f)
for line in g:
print(line)
else:
f.close() try:
f=open('a.txt')
g=(line.strip() for line in f)
print(next(g))
print(next(g))
print(next(g))
print(next(g))
print(next(g))
except StopIteration:
f.close()
简单的实现for循环
2、异常类只能用来处理指定的异常情况,如果非指定异常则无法处理
try:
1/0
except IOError as e:
print(e) '''
未捕获到异常,程序直接报错
'''
3、多分枝的异常捕获
try:
print(a) #NameError int('sdadsds') #ValueError a = {'a':1}
a['b'] #KeyError except NameError as e:
print(e)
except ValueError:
print('value_error') except Exception as e:
print(e) '''
当捕获到NameError异常,程序就不会在往下进行,进入except里进行处理 '''
4、万能异常,在python的异常中,有一个万能异常: Exception,他可以捕获任意异常,即:
s1 = 'hello'
try:
int(s1)
except Exception as e:
print(e)
5、异常的用途
1、无论出现什么异常,统一丢弃,或者使用一段代码逻辑去处理,那就用万能异常去处理
s1 = 'hello'
try:
int(s1)
except Exception,e:
'丢弃或者执行其他逻辑'
print(e) #如果你统一用Exception,没错,是可以捕捉所有异常,但意味着你在处理所有异常时都使用同一个逻辑去处理(这里说的逻辑即当前expect下面跟的代码块)
例子
2、如果你有多种异常的处理需求,就需要用多分枝,可以在最后加一个Exception,如果前面的异常都无法匹配就走最后的exception
s1 = 'hello'
try:
int(s1)
except IndexError as e:
print(e)
except KeyError as e:
print(e)
except ValueError as e:
print(e)
except Exception as e:
print(e)
例子
6、异常的其他内容,else,finally
s1 = 'hello'
try:
int(s1)
except IndexError as e:
print(e)
except KeyError as e:
print(e)
except ValueError as e:
print(e)
#except Exception as e:
# print(e)
else:
print('try内代码块没有异常则执行我')
finally:
print('无论异常与否,都会执行该模块,通常是进行清理工作')
7、rasie主动抛出异常
try:
raise TypeError('类型错误')
except Exception as e:
print(e)
8、自定义异常
class DragonException(Exception):
def __init__(self,msg):
self.msg = msg try:
raise DragonException('我的错误')
except DragonException as e:
print(e)
9、断言
1、assert
语句用来声明某个条件是真的。
2、如果你非常确信某个你使用的列表中至少有一个元素,而你想要检验这一点,并且在它非真的时候引发一个错误,那么assert
语句是应用在这种情形下的理想语句。
AssertionError
。>>> mylist = ['qqq']
>>> assert len(mylist) >=1
>>> mylist.pop()
'qqq'
>>> mylist
[]
>>> assert len(mylist) >=1
Traceback (most recent call last):
File "<stdin>", line 1, in <module>
AssertionError
10.异常处理格式化返回
try:
a = {"a":123}
a.b = 3 except Exception as e:
print(e.__class__.__name__,e)
# print(e) """
AttributeError 'dict' object has no attribute 'b'
"""
11.插叙***python通过对象获取类的名字
class Foo(object):
pass g = Foo()
print(g.__class__.__name__) """
Foo
"""
二、进程
1、什么是进程?
进程:正在进行的一个过程或者说一个任务。而负责执行任务则是cpu。
xiaoming在一段时间内有很多任务要做,学习,聊天,写书,但xiaoming只能做一个任务(cpu同一时间只能干一个活),如何才能做出并发的效果
xiaoming学习一会,在去跟女朋友聊聊天,在去写一会书,这样就实现了,进程的执行和切换
2、进程和程序的区别
程序仅仅只是一堆代码而已,而进程指的是程序的运行过程。
举例:
想象一位有一手好厨艺的计算机科学家egon正在为他的女儿元昊烘制生日蛋糕。
他有做生日蛋糕的食谱,
厨房里有所需的原料:面粉、鸡蛋、韭菜,蒜泥等。
在这个比喻中:
做蛋糕的食谱就是程序(即用适当形式描述的算法)
计算机科学家就是处理器(cpu)
而做蛋糕的各种原料就是输入数据。
进程就是厨师阅读食谱、取来各种原料以及烘制蛋糕等一系列动作的总和。
现在假设计算机科学家egon的儿子alex哭着跑了进来,说:巴拉巴拉巴。
科学家egon想了想,处理儿子alex蛰伤的任务比给女儿元昊做蛋糕的任务更重要,于是 计算机科学家就记录下他照着食谱做到哪儿了(保存进程的当前状态),然后拿出一本急救手册,按照其中的指示处理蛰伤。这里,我们看到处理机从一个进程(做蛋糕)切换到另一个高优先级的进程(实施医疗救治),每个进程拥有各自的程序(食谱和急救手册)。当蜜蜂蛰伤处理完之后,这位计算机科学家又回来做蛋糕,从他离开时的那一步继续做下去。
需要强调的是:同一个程序执行两次,那也是两个进程,比如打开暴风影音,虽然都是同一个软件,但是一个可以播放蜡笔小新,一个可以播放变形金刚
3、并发和并行的区别
无论是并发还是并行对用户看来都是'同时'的,不管是进程还是线程,都只是一个任务而已, 真正干活的是cpu,cpu来做这些任务,而cpu同一时刻只能执行同一个任务
并行:同时运行,只有具备多个cpu才能并行
并发:是伪并行,即看起来是同时运行,单个cpu+多道技术可以实现并发(并行也属于并发)
4、多道技术
产生背景:
cpu在执行一个任务的过程中,若需要操作硬盘,则发送操作硬盘的指令,指令一旦发出,硬盘上的机械手臂滑动读取数据到内存中,这一段时间,cpu需要等待,时间可能很短,但对于cpu来说已经很长很长,长到可以让cpu做很多其他的任务,如果我们让cpu在这段时间内切换到去做其他的任务,这样cpu不就充分利用了吗。这正是多道技术产生的技术背景
多道技术中的多道指的是多个程序,多道技术的实现是为了解决多个程序竞争或者说共享同一个资源(比如cpu)的有序调度问题,解决方式即多路复用,多路复用分为时间上的复用和空间上的复用。
(1) 空间上的复用:将内存分为几部分,每个部分放入一个程序,这样,同一时间内存中就有了多道程序。
(2) 时间上的复用:当一个程序在等待I/O时,另一个程序可以使用cpu,如果内存中可以同时存放足够多的作业,则cpu的利用率可以接近100%,类似于我们小学数学所学的统筹方法。
空间上的复用最大的问题是:程序之间的内存必须分割,这种分割需要在硬件层面实现,由操作系统控制。如果内存彼此不分割,则一个程序可以访问另外一个程序的内存,
首先丧失的是安全性,比如你的qq程序可以访问操作系统的内存,这意味着你的qq可以拿到操作系统的所有权限。
其次丧失的是稳定性,某个程序崩溃时有可能把别的程序的内存也给回收了,比方说把操作系统的内存给回收了,则操作系统崩溃。
空间上复用的用途:
每个客户都获取了一个大的资源中的一小部分资源,从而减少了排队等待资源的时间。
例如:多个运行的程序同时进入内存,硬件层面提供保护机制来确保各自的内存是分割开的,且由操作系统控制,这比一个程序独占内存一个一个排队进入内存效率要高的多。
有关空间复用的其他资源还有磁盘,在许多系统中,一个磁盘同时为许多用户保存文件。分配磁盘空间并且记录谁正在使用哪个磁盘块是操作系统资源管理的典型任务。
5、同步与异步
同步就是指一个进程在执行某个请求的时候,若该请求需要一段时间才能返回信息,那么这个进程将会一直等待下去,直到收到返回信息才继续执行下去;
异步是指进程不需要一直等下去,而是继续执行下面的操作,不管其他进程的状态。当有消息返回时系统会通知进程进行处理,这样可以提高执行的效率。
举个例子,打电话时就是同步通信,发短息时就是异步通信。
6、进程的创建(了解)
但凡是硬件,都需要有操作系统去管理,只要有操作系统,就有进程的概念,就需要有创建进程的方式,一些操作系统只为一个应用程序设计,比如微波炉中的控制器,一旦启动微波炉,所有的进程都已经存在。
而对于通用系统(跑很多应用程序),需要有系统运行过程中创建或撤销进程的能力,主要分为4中形式创建新的进程
1. 系统初始化(查看进程linux中用ps命令,windows中用任务管理器,前台进程负责与用户交互,后台运行的进程与用户无关,运行在后台并且只在需要时才唤醒的进程,称为守护进程,如电子邮件、web页面、新闻、打印)
2. 一个进程在运行过程中开启了子进程(如nginx开启多进程,os.fork,subprocess.Popen等)
3. 用户的交互式请求,而创建一个新进程(如用户双击暴风影音)
4. 一个批处理作业的初始化(只在大型机的批处理系统中应用)
无论哪一种,新进程的创建都是由一个已经存在的进程执行了一个用于创建进程的系统调用而创建的:
1. 在UNIX中该系统调用是:fork,fork会创建一个与父进程一模一样的副本,二者有相同的存储映像、同样的环境字符串和同样的打开文件(在shell解释器进程中,执行一个命令就会创建一个子进程)
2. 在windows中该系统调用是:CreateProcess,CreateProcess既处理进程的创建,也负责把正确的程序装入新进程。
关于创建的子进程,UNIX和windows
1.相同的是:进程创建后,父进程和子进程有各自不同的地址空间(多道技术要求物理层面实现进程之间内存的隔离),任何一个进程的在其地址空间中的修改都不会影响到另外一个进程。
2.不同的是:在UNIX中,子进程的初始地址空间是父进程的一个副本,提示:子进程和父进程是可以有只读的共享内存区的。但是对于windows系统来说,从一开始父进程与子进程的地址空间就是不同的。
7、进程的终止(了解)
1. 正常退出(自愿,如用户点击交互式页面的叉号,或程序执行完毕调用发起系统调用正常退出,在linux中用exit,在windows中用ExitProcess)
2. 出错退出(自愿,python a.py中a.py不存在)
3. 严重错误(非自愿,执行非法指令,如引用不存在的内存,1/0等,可以捕捉异常,try...except...)
4. 被其他进程杀死(非自愿,如kill -9)
8、进程的层次结构
无论UNIX还是windows,进程只有一个父进程,不同的是:
1. 在UNIX中所有的进程,都是以init进程为根,组成树形结构。父子进程共同组成一个进程组,这样,当从键盘发出一个信号时,该信号被送给当前与键盘相关的进程组中的所有成员。
2. 在windows中,没有进程层次的概念,所有的进程都是地位相同的,唯一类似于进程层次的暗示,是在创建进程时,父进程得到一个特别的令牌(称为句柄),该句柄可以用来控制子进程,但是父进程有权把该句柄传给其他子进程,这样就没有层次了。
open可以拿到文件句柄
9、进程的状态
tail -f access.log |grep '404'
执行程序tail,开启一个子进程,执行程序grep,开启另外一个子进程,两个进程之间基于管道'|'通讯,将tail的结果作为grep的输入。
进程grep在等待输入(即I/O)时的状态称为阻塞,此时grep命令都无法运行
其实在两种情况下会导致一个进程在逻辑上不能运行,
1. 进程挂起是自身原因,遇到I/O阻塞,便要让出CPU让其他进程去执行,这样保证CPU一直在工作
2. 与进程无关,是操作系统层面,可能会因为一个进程占用时间过多,或者优先级等原因,而调用其他的进程去使用CPU。
因而一个进程由三种状态
10、进程的并发实现
进程并发的实现在于,硬件中断一个正在运行的进程,把此时进程运行的所有状态保存下来,为此,操作系统维护一张表格,即进程表(process table),每个进程占用一个进程表项(这些表项也称为进程控制块)
三、python并发多进程的实现
1、模块介绍
python中的多线程无法利用多核优势,如果想要充分地使用多核CPU的资源(os.cpu_count()查看),在python中大部分情况需要使用多进程。Python提供了非常好用的多进程包multiprocessing。
multiprocessing模块用来开启子进程,并在子进程中执行我们定制的任务(比如函数),该模块与多线程模块threading的编程接口类似。
multiprocessing模块的功能众多:支持子进程、通信和共享数据、执行不同形式的同步,提供了Process、Queue、Pipe、Lock等组件。
需要再次强调的一点是:与线程不同,进程没有任何共享状态,进程修改的数据,改动仅限于该进程内。
2、Process类的介绍
创建进程类:
Process([group [, target [, name [, args [, kwargs]]]]]),由该类实例化得到的对象,表示一个子进程中的任务(尚未启动) 强调:
1. 需要使用关键字的方式来指定参数
2. args指定的为传给target函数的位置参数,是一个元组形式,必须有逗号
参数介绍:
group参数未使用,值始终为None target表示调用对象,即子进程要执行的任务(可调用对象) args表示调用对象的位置参数元组,args=(1,2,'egon',) kwargs表示调用对象的字典,kwargs={'name':'egon','age':18} name为子进程的名称
方法介绍:
p.start():启动进程,并调用该子进程中的p.run()
p.run():进程启动时运行的方法,正是它去调用target指定的函数,我们自定义类的类中一定要实现该方法 p.terminate():强制终止进程p,不会进行任何清理操作,如果p创建了子进程,该子进程就成了僵尸进程,使用该方法需要特别小心这种情况。如果p还保存了一个锁那么也将不会被释放,进而导致死锁
p.is_alive():如果p仍然运行,返回True p.join([timeout]):主线程等待p终止(强调:是主线程处于等的状态,而p是处于运行的状态)。timeout是可选的超时时间,需要强调的是,p.join只能join住start开启的进程,而不能join住run开启的进程
属性介绍:
p.daemon:默认值为False,如果设为True,代表p为后台运行的守护进程,当p的父进程终止时,p也随之终止,并且设定为True后,p不能创建自己的新进程,必须在p.start()之前设置 p.name:进程的名称 p.pid:进程的pid p.exitcode:进程在运行时为None、如果为–N,表示被信号N结束(了解即可) p.authkey:进程的身份验证键,默认是由os.urandom()随机生成的32字符的字符串。这个键的用途是为涉及网络连接的底层进程间通信提供安全性,这类连接只有在具有相同的身份验证键时才能成功(了解即可)
3、Process类的使用
====> part1:创建并开启子进程的两种方式
注意:在windows中Process()必须放到# if __name__ == '__main__':下
Since Windows has no fork, the multiprocessing module starts a new Python process and imports the calling module.
If Process() gets called upon import, then this sets off an infinite succession of new processes (or until your machine runs out of resources).
This is the reason for hiding calls to Process() inside
if __name__ == "__main__"
since statements inside this if-statement will not get called upon import.
由于Windows没有fork,多处理模块启动一个新的Python进程并导入调用模块。
如果在导入时调用Process(),那么这将启动无限继承的新进程(或直到机器耗尽资源)。
这是隐藏对Process()内部调用的原,使用if __name__ == “__main __”,这个if语句中的语句将不会在导入时被调用。
#第一种开启进程的方法
from multiprocessing import Process
import time
import random def Eat(name):
print('%s is eating' %(name))
time.sleep(random.randint(1,3))
print('%s is eat end' %(name)) if __name__ == '__main__':
p = Process(target=Eat,args=('xiaoming',))
p1 = Process(target=Eat, args=('xiaogang',))
p2 = Process(target=Eat, args=('xiaohua',))
p3 = Process(target=Eat, args=('xiaogoy',)) p.start()
p1.start()
p2.start()
p3.start() print('主进程')
#第二种类的继承开启方法
from multiprocessing import Process
import time
import random
class Eat(Process): def __init__(self,name):
super().__init__() #必须继承父类的init
self.name = name def run(self): #必须写run函数
print('%s is eating' %(self.name))
time.sleep(random.randint(1,3))
print('%s is end' %(self.name)) if __name__ == '__main__':
p = Eat('alex')
p1 = Eat('alex1')
p2 = Eat('alex2')
p3 = Eat('alex3') p.start()
p1.start()
p2.start()
p3.start()
print('主进程')
练习将socket变成并发:
from socket import *
from multiprocessing import Process server = socket(AF_INET,SOCK_STREAM)
server.setsockopt(SOL_SOCKET,SO_REUSEADDR,1)
server.bind(('127.0.0.1',9999))
server.listen(5) def talk(conn,client_addr):
while True:
try:
msg = conn.recv(1024)
if not msg:break
conn.send(msg.upper()) except Exception:
break if __name__ == '__main__':
while True:
conn,client_addr = server.accept()
p = Process(target=talk,args=(conn,client_addr))
p.start()
socketserver
from socket import * client = socket(AF_INET,SOCK_STREAM)
client.connect(('127.0.0.1',9999)) while True:
msg = input('--->: ').strip()
if not msg:continue client.send(msg.encode('utf-8'))
msg = client.recv(1024)
print(msg.decode('utf-8'))
socket_client
server端是无限接受socker请求,每启动一个进程都会开辟一块内存空间,如果大量并发请求,server端会出现内存溢出的情况 解决方法:进程池
存在问题
4、Process的其他使用方式
(1) 进程对象的方法一,terminate,is_alive
from multiprocessing import Process
import time
import random
class Eat(Process): def __init__(self,name):
super().__init__()
self.name = name def run(self):
print('%s is eating' %(self.name))
time.sleep(random.randrange(1,5))
print('%s is end' %(self.name)) if __name__ == '__main__': P = Eat('alex')
P.start() P.terminate() #关闭进程,不会立即关闭,所以is_alive立刻结果显示可能还是存活状态
print(P.is_alive()) time.sleep(0.1) #中间设置个间隔,不然两次is_alive都为True了
print('开始') print(P.is_alive())
(2) p.join(),是父进程在等p的结束,是父进程阻塞在原地,而p仍然在后台运行
from multiprocessing import Process
import time
import random
class Eat(Process): def __init__(self,name):
super().__init__()
self.name = name def run(self):
print('%s is eating' %(self.name))
time.sleep(random.randrange(1,5))
print('%s is end' %(self.name)) if __name__ == '__main__': P = Eat('alex')
P1=Eat('XIAOHUA') #P1不受P影响
P.daemon = True #一定要在P.start()前设置,设置P为守护进程,禁止P创建子进程,并且父进程死,p跟着一起死 P.start()
P1.start()
P.join(0.0001) #等待p停止,等0.0001秒就不再等了
#P.join() #等待P执行完毕,在去往下执行
print('主进程')
from multiprocessing import Process import time
import random
def piao(name):
print('%s is piaoing' %name)
time.sleep(random.randint(1,3))
print('%s is piao end' %name) p1=Process(target=piao,args=('egon',))
p2=Process(target=piao,args=('alex',))
p3=Process(target=piao,args=('yuanhao',))
p4=Process(target=piao,args=('wupeiqi',)) p1.start()
p2.start()
p3.start()
p4.start() #有的同学会有疑问:既然join是等待进程结束,那么我像下面这样写,进程不就又变成串行的了吗?
#当然不是了,必须明确:p.join()是让谁等?
#很明显p.join()是让主线程等待p的结束,卡住的是主线程而绝非进程p, #详细解析如下:
#进程只要start就会在开始运行了,所以p1-p4.start()时,系统中已经有四个并发的进程了
#而我们p1.join()是在等p1结束,没错p1只要不结束主线程就会一直卡在原地,这也是问题的关键
#join是让主线程等,而p1-p4仍然是并发执行的,p1.join的时候,其余p2,p3,p4仍然在运行,等#p1.join结束,可能p2,p3,p4早已经结束了,这样p2.join,p3.join.p4.join直接通过检测,无需等待
# 所以4个join花费的总时间仍然是耗费时间最长的那个进程运行的时间
p1.join()
p2.join()
p3.join()
p4.join() print('主线程') #上述启动进程与join进程可以简写为
# p_l=[p1,p2,p3,p4]
#
# for p in p_l:
# p.start()
#
# for p in p_l:
# p.join()
有了join,程序代码仍然是并发,不是串行
(3) 进程对象name,pid
#进程对象的其他属性:name,pid
from multiprocessing import Process
import time
import random
class Piao(Process):
def __init__(self,name):
# self.name=name
# super().__init__() #Process的__init__方法会执行self.name=Piao-1,
# #所以加到这里,会覆盖我们的self.name=name #为我们开启的进程设置名字的做法
super().__init__()
self.name=name def run(self):
print('%s is piaoing' %self.name)
time.sleep(random.randrange(1,3))
print('%s is piao end' %self.name) if __name__ == '__main__': p=Piao('egon')
p.start()
print('开始')
print(p.pid) #查看pid
5、进程之间数据不共享,但是共享同一个文件系统,所以访问同一个文件,或者打印同一个终端,是没有问题的
(1) 共享同一个打印终端会出现有多行内容打印到一行的现象(多个进程共享并抢占同一个打印终端,这样就会导致终端出现混乱)
#多进程共享一个打印终端(用python2测试看两个进程同时往一个终端打印,出现打印到一行的错误)
from multiprocessing import Process
import time
class Logger(Process):
def __init__(self):
super(Logger,self).__init__()
def run(self):
print(self.name) if __name__ == '__main__': for i in range(1000000):
l=Logger()
l.start()
(2) 共享同一个文件,既然可以用文件共享数据,那么进程间通信用文件作为数据传输介质就可以了啊,可以,但是有问题:1.效率 2.需要自己加锁处理
#多进程共享一套文件系统
from multiprocessing import Process
import time,random def work(f,msg):
f.write(msg)
f.flush() f=open('a.txt','w') #在windows上无法把f当做参数传入,可以传入一个文件名,然后在work内用a+的方式打开文件,进行写入测试
for i in range(5):
p=Process(target=work,args=(f,str(i)))
p.start()
#多进程共享一套文件系统
from multiprocessing import Process def work(f,msg):
g = open(f, 'a+')
g.write(msg)
g.flush() if __name__ == '__main__': for i in range(5):
p=Process(target=work,args=('a.txt',str(i)))
p.start()
windows版
6、进程同步
模拟抢票软件(Lock互斥锁)
#文件db的内容为:{"count":1}
#注意一定要用双引号,不然json无法识别
from multiprocessing import Process,Lock
import json
import time
import random
import os def work(filename,lock): #买票
# lock.acquire()
with lock:
with open(filename,encoding='utf-8') as f:
dic=json.loads(f.read())
# print('剩余票数: %s' % dic['count'])
if dic['count'] > 0:
dic['count']-=1
time.sleep(random.randint(1,3)) #模拟网络延迟
with open(filename,'w',encoding='utf-8') as f:
f.write(json.dumps(dic))
print('%s 购票成功' %os.getpid())
else:
print('%s 购票失败' %os.getpid())
# lock.release() if __name__ == '__main__':
lock=Lock()
p_l=[]
for i in range(100):
p=Process(target=work,args=('db',lock))
p_l.append(p)
p.start()
for p in p_l:
p.join() print('主线程')
买票
#模拟买票
from multiprocessing import Process,Lock
import json
import time
import random
import os def work(filename): #查票 with open(filename,encoding='utf-8') as f:
dic=json.loads(f.read())
# print('剩余票数: %s' % dic['count'])
if dic['count'] > 0:
time.sleep(random.randint(1,3)) #模拟网络延迟
print('%s 查票成功 当前余票%s' %(os.getpid(),dic['count']))
else:
print('%s 当前无票' %os.getpid()) if __name__ == '__main__': p_l=[]
for i in range(100):
p=Process(target=work,args=('db',))
p_l.append(p)
p.start()
for p in p_l:
p.join() print('主线程')
查票
四、python进程间IPC-通信队列
进程彼此之间互相隔离,要实现进程间通信,即IPC,multiprocessing模块支持两种形式:队列和管道,这两种方式都是使用消息传递的
创建类:
Queue([maxsize]):创建共享的进程队列,Queue是多进程安全的队列,可以使用Queue实现多进程之间的数据传递。
参数介绍:
maxsize是队列中允许最大项数,省略则无大小限制.
方法介绍:
q.put方法用以插入数据到队列中,put方法还有两个可选参数:blocked和timeout。如果blocked为True(默认值),并且timeout为正值,该方法会阻塞timeout指定的时间,直到该队列有剩余的空间。如果超时,会抛出Queue.Full异常。如果blocked为False,但该Queue已满,会立即抛出Queue.Full异常。
q.get方法可以从队列读取并且删除一个元素。同样,get方法有两个可选参数:blocked和timeout。如果blocked为True(默认值),并且timeout为正值,那么在等待时间内没有取到任何元素,会抛出Queue.Empty异常。如果blocked为False,有两种情况存在,如果Queue有一个值可用,则立即返回该值,否则,如果队列为空,则立即抛出Queue.Empty异常. q.get_nowait():同q.get(False)
q.put_nowait():同q.put(False) q.empty():调用此方法时q为空则返回True,该结果不可靠,比如在返回True的过程中,如果队列中又加入了项目。
q.full():调用此方法时q已满则返回True,该结果不可靠,比如在返回True的过程中,如果队列中的项目被取走。
q.qsize():返回队列中目前项目的正确数量,结果也不可靠,理由同q.empty()和q.full()一样
其他方法(了解)
q.cancel_join_thread():不会在进程退出时自动连接后台线程。可以防止join_thread()方法阻塞
q.close():关闭队列,防止队列中加入更多数据。调用此方法,后台线程将继续写入那些已经入队列但尚未写入的数据,但将在此方法完成时马上关闭。如果q被垃圾收集,将调用此方法。关闭队列不会在队列使用者中产生任何类型的数据结束信号或异常。例如,如果某个使用者正在被阻塞在get()操作上,关闭生产者中的队列不会导致get()方法返回错误。
q.join_thread():连接队列的后台线程。此方法用于在调用q.close()方法之后,等待所有队列项被消耗。默认情况下,此方法由不是q的原始创建者的所有进程调用。调用q.cancel_join_thread方法可以禁止这种行为
from multiprocessing import Queue q = Queue(3)
q.put(1,block=False)
q.put(1,block=False)
q.put(1,block=False)
q.put(1,block=False) print(q.full())
q.get(block=False) #block设置了之后,出现队列为空的情况 就会抛出异常 queue.Empty
q.get(block=False)
q.get(block=False) print(q.empty()) '''
Traceback (most recent call last):
File "C:/Users/liujiliang/PycharmProjects/py_day_01/oldboy-17/day09/socket_3.py", line 8, in <module>
q.put(1,block=False)
File "E:\python36\lib\multiprocessing\queues.py", line 83, in put
raise Full
queue.Full '''
生产者和消费者模型
在并发编程中使用生产者和消费者模式能够解决绝大多数并发问题。该模式通过平衡生产线程和消费线程的工作能力来提高程序的整体处理数据的速度。
为什么要使用生产者和消费者模式
在线程世界里,生产者就是生产数据的线程,消费者就是消费数据的线程。在多线程开发当中,如果生产者处理速度很快,而消费者处理速度很慢,那么生产者就必须等待消费者处理完,才能继续生产数据。同样的道理,如果消费者的处理能力大于生产者,那么消费者就必须等待生产者。为了解决这个问题于是引入了生产者和消费者模式。
什么是生产者消费者模式
生产者消费者模式是通过一个容器来解决生产者和消费者的强耦合问题。生产者和消费者彼此之间不直接通讯,而通过阻塞队列来进行通讯,所以生产者生产完数据之后不用等待消费者处理,直接扔给阻塞队列,消费者不找生产者要数据,而是直接从阻塞队列里取,阻塞队列就相当于一个缓冲区,平衡了生产者和消费者的处理能力。
基于队列实现生产者消费者模型
from multiprocessing import Queue,Process
import time,os,random def producer(seq,q):
for i in seq:
time.sleep(random.randint(1,3))
print('\033[46m生产者生产了:%s\033[0m' %i)
q.put(i) def consume(q):
while True:
time.sleep(random.randint(1,3))
res = q.get()
print('\033[45m消费者拿到了:%s\033[0m' % res) if __name__ == '__main__':
p = Queue()
seq = ['乐虎%s' %i for i in range(10)]
c = Process(target=consume,args=(p,))
c.start()
producer(seq,p)
print('主进程') '''
生产者生产了:乐虎0
消费者拿到了:乐虎0
生产者生产了:乐虎1
消费者拿到了:乐虎1
生产者生产了:乐虎2
消费者拿到了:乐虎2
生产者生产了:乐虎3
消费者拿到了:乐虎3
生产者生产了:乐虎4
消费者拿到了:乐虎4
生产者生产了:乐虎5
消费者拿到了:乐虎5
生产者生产了:乐虎6
消费者拿到了:乐虎6
生产者生产了:乐虎7
生产者生产了:乐虎8
消费者拿到了:乐虎7
生产者生产了:乐虎9
主进程
消费者拿到了:乐虎8
消费者拿到了:乐虎9 '''
上述程序表面开来实现了目的,但是发现程序并未终止,因为消费者在一直get
from multiprocessing import Queue,Process
import time,os,random def producer(seq,q):
for i in seq:
time.sleep(random.randint(1,3))
print('\033[46m生产者生产了:%s\033[0m' %i)
q.put(i) def consume(q):
while True:
time.sleep(random.randint(1,3))
res = q.get()
if res == 'full': break
print('\033[45m消费者拿到了:%s\033[0m' % res) if __name__ == '__main__':
p = Queue()
seq = ['乐虎%s' %i for i in range(10)]
c = Process(target=consume,args=(p,))
c.start()
producer(seq, p)
p.put('full') c.join() print('主进程')
主线程等待消费者结束(生产者发送结束信号给消费者)
创建队列的另外一个类:
JoinableQueue([maxsize]):这就像是一个Queue对象,但队列允许项目的使用者通知生成者项目已经被成功处理。通知进程是使用共享的信号和条件变量来实现的。
参数介绍:
方法介绍:
from multiprocessing import Process,JoinableQueue
import time,random
def consumer(q):
while True:
time.sleep(random.randint(1,2))
res=q.get()
print('消费者拿到了 %s' %res)
q.task_done() def producer(seq,q):
for item in seq:
time.sleep(random.randrange(1,2))
q.put(item)
print('生产者做好了 %s' %item)
q.join() if __name__ == '__main__':
q=JoinableQueue()
seq=('包子%s' %i for i in range(10)) p=Process(target=consumer,args=(q,))
p.daemon=True #设置为守护进程,在主线程停止时p也停止,但是不用担心,producer内调用q.join保证了consumer已经处理完队列中的所有元素
p.start() producer(seq,q) print('主线程')
joinables
from multiprocessing import Process,JoinableQueue
import time,random
def consumer(name,q):
while True:
time.sleep(random.randint(1,2))
res=q.get()
print('%s拿到了 %s' %(name,res))
q.task_done() def producer(seq,q):
for item in seq:
time.sleep(random.randrange(1,2))
q.put(item)
print('生产者做好了 %s' %item)
q.join() if __name__ == '__main__':
q=JoinableQueue()
seq=('包子%s' %i for i in range(10)) p=Process(target=consumer,args=('消费者1',q))
p1 = Process(target=consumer, args=('消费者2',q))
p2 = Process(target=consumer, args=('消费者3',q))
p.daemon=True #设置为守护进程,在主线程停止时p也停止,但是不用担心,producer内调用q.join保证了consumer已经处理完队列中的所有元素
p1.daemon=True
p2.daemon=True
p.start()
p1.start()
p2.start()
producer(seq,q) print('主线程')
一个生产者多个消费者模式
from multiprocessing import Process,JoinableQueue
import time,random
def consumer(name,q):
while True:
time.sleep(random.randint(1,2))
res=q.get()
print('%s拿到了 %s' %(name,res))
q.task_done() def producer(seq,q):
for item in seq:
time.sleep(random.randrange(1,2))
q.put(item)
print('生产者做好了 %s' %item)
q.join()
if __name__ == '__main__':
q=JoinableQueue()
seq=['包子%s' %i for i in range(10)] p=Process(target=consumer,args=('消费者1',q))
p1 = Process(target=consumer, args=('消费者2',q))
p2 = Process(target=consumer, args=('消费者3',q))
p.daemon=True #设置为守护进程,在主线程停止时p也停止,但是不用担心,producer内调用q.join保证了consumer已经处理完队列中的所有元素
p1.daemon=True
p2.daemon=True
p.start()
p1.start()
p2.start()
p4=Process(target=producer,args=(seq,q))
p4.start()
p4.join() print('主线程')
将生产者放到子进程里进行生产,多消费者消费
四、python进程间IPC二-管道
管道也可以说是队列的另外一种形式,下面我们就开始介绍基于管道实现进程之间的消息传递
创建管道类:
Pipe([duplex]):在进程之间创建一条管道,并返回元组(conn1,conn2),其中conn1,conn2表示管道两端的连接对象,强调一点:必须在产生Process对象之前产生管道
参数介绍:
dumplex:默认管道是全双工的,如果将duplex射成False,conn1只能用于接收,conn2只能用于发送.
方法介绍:
主要方法:
conn1.close():关闭连接。如果conn1被垃圾回收,将自动调用此方法
conn1.fileno():返回连接使用的整数文件描述符
conn1.poll([timeout]):如果连接上的数据可用,返回True。timeout指定等待的最长时限。如果省略此参数,方法将立即返回结果。如果将timeout射成None,操作将无限期地等待数据到达。 conn1.recv_bytes([maxlength]):接收c.send_bytes()方法发送的一条完整的字节消息。maxlength指定要接收的最大字节数。如果进入的消息,超过了这个最大值,将引发IOError异常,并且在连接上无法进行进一步读取。如果连接的另外一端已经关闭,再也不存在任何数据,将引发EOFError异常。
conn.send_bytes(buffer [, offset [, size]]):通过连接发送字节数据缓冲区,buffer是支持缓冲区接口的任意对象,offset是缓冲区中的字节偏移量,而size是要发送字节数。结果数据以单条消息的形式发出,然后调用c.recv_bytes()函数进行接收 conn1.recv_bytes_into(buffer [, offset]):接收一条完整的字节消息,并把它保存在buffer对象中,该对象支持可写入的缓冲区接口(即bytearray对象或类似的对象)。offset指定缓冲区中放置消息处的字节位移。返回值是收到的字节数。如果消息长度大于可用的缓冲区空间,将引发BufferTooShort异常。
基于管道实现进程间通信(与队列的方式是类似的,队列就是管道加锁实现的):
from multiprocessing import Process,Pipe
import time,os def consumer(p,name):
left,right = p
left.close()
while True:
try:
baozi = right.recv()
print('%s 收到包子:%s' % (name, baozi))
except EOFError:
right.close()
break
def producer(seq,p):
left,right = p
right.close() #将管道对象的左右都传入,但是只有left去生产,所以直接将right关闭
for i in seq:
left.send(i)
print('生产了包子%s' %(i))
else:
left.close() if __name__ == '__main__':
left,right = Pipe()
c1 = Process(target=consumer,args=((left,right),'xiaoming'))
c1.start() seq = [i for i in range(10)]
producer(seq,(left,right)) #拿主进程当做一个进程去执行生产者 right.close()
left.close() c1.join()
print('主进程')
注意:生产者和消费者都没有使用管道的某个端点,就应该将其关闭,如在生产者中关闭管道的右端,在消费者中关闭管道的左端。如果忘记执行这些步骤,程序可能再消费者中的recv()操作上挂起。管道是由操作系统进行引用计数的,必须在所有进程中关闭管道后才能生产EOFError异常。因此在生产者中关闭管道不会有任何效果,付费消费者中也关闭了相同的管道端点。 ----> 生产者开启left管道,就必须关闭right管道,消费者开启right管道,就必须关闭 left管道
管道可以用于双向通信,利用通常在客户端/服务器中使用的请求/响应模型或远程过程调用,就可以使用管道编写与进程交互的程序,如下
from multiprocessing import Process,Pipe import time,os
def adder(p,name):
server,client=p
client.close()
while True:
try:
x,y=server.recv()
except EOFError:
server.close()
break
res=x+y
server.send(res)
print('server done')
if __name__ == '__main__':
server,client=Pipe() c1=Process(target=adder,args=((server,client),'c1'))
c1.start() server.close() client.send((10,20)) #用主进程当做一个进程与新建进程进行交互
print(client.recv())
client.close() c1.join()
print('主进程') '''
30
server done
主进程 '''
注意:send()和recv()方法使用pickle模块对对象进行序列化。
四、python进程间IPC三-共享数据
展望未来,基于消息传递的并发编程是大势所趋
即便是使用线程,推荐做法也是将程序设计为大量独立的线程集合
通过消息队列交换数据。这样极大地减少了对使用锁定和其他同步手段的需求,
还可以扩展到分布式系统中
进程间通信应该尽量避免使用本节所讲的共享数据的方式
进程间数据是独立的,可以借助于队列或管道实现通信,二者都是基于消息传递的
虽然进程间数据独立,但可以通过Manager实现数据共享,事实上Manager的功能远不止于此
A manager object returned by Manager()
controls a server process which holds Python objects and allows other processes to manipulate them using proxies.
A manager returned by Manager()
will support types list
, dict
, Namespace
, Lock
, RLock
, Semaphore
, BoundedSemaphore
, Condition
, Event
, Barrier
, Queue
, Value
and Array
. For example
from multiprocessing import Process,Manager
import os def foo(name,d,l):
l.append(os.getpid())
d[name]=os.getpid()
if __name__ == '__main__':
with Manager() as manager:
d=manager.dict({'name':'egon'})
l=manager.list(['init',]) p_l=[]
for i in range(10):
p=Process(target=foo,args=('p%s' %i,d,l))
p.start()
p_l.append(p) for p in p_l:
p.join() #必须有join不然会报错,如果正常添加的话就会一堆join
print(d)
print(l)
Array共享数据
from multiprocessing import Process,Array def task(num,li):
li[num] = 1
print(list(li)) if __name__ == '__main__':
v = Array('i',10) #c语言创建共享数组
for i in range(10):
p = Process(target=task,args=(i,v,))
p.start() '''
[0, 1, 0, 0, 0, 0, 0, 0, 0, 0]
[0, 1, 1, 0, 0, 0, 0, 0, 0, 0]
[0, 1, 1, 1, 0, 0, 0, 0, 0, 0]
[1, 1, 1, 1, 0, 0, 0, 0, 0, 0]
[1, 1, 1, 1, 0, 1, 0, 0, 0, 0]
[1, 1, 1, 1, 1, 1, 0, 0, 0, 0]
[1, 1, 1, 1, 1, 1, 1, 0, 0, 0]
[1, 1, 1, 1, 1, 1, 1, 1, 0, 0]
[1, 1, 1, 1, 1, 1, 1, 1, 0, 1]
[1, 1, 1, 1, 1, 1, 1, 1, 1, 1] '''
四、python进程间IPC四-信号量,事件
互斥锁 同时只允许一个线程更改数据,而Semaphore是同时允许一定数量的线程更改数据 ,比如厕所有3个坑,那最多只允许3个人上厕所,后面的人只能等里面有人出来了才能再进去,如果指定信号量为3,那么来一个人获得一把锁,计数加1,当计数等于3时,后面的人均需要等待。一旦释放,就有人可以获得一把锁 信号量与进程池的概念很像,但是要区分开,信号量涉及到加锁的概念 from multiprocessing import Process,Semaphore
import time,random def go_wc(sem,user):
#sem.acquire()
with sem:
print('%s 占到一个茅坑' %user)
time.sleep(random.randint(0,3)) #模拟每个人拉屎速度不一样,0代表有的人蹲下就起来了
print('%s 拉完了' % user)
#sem.release() if __name__ == '__main__':
sem=Semaphore(3)
p_l=[]
for i in range(13):
p=Process(target=go_wc,args=(sem,'user%s' %i,))
p.start()
p_l.append(p) for i in p_l:
i.join()
print('============》')
python线程的事件用于主线程控制其他线程的执行,事件主要提供了三个方法 set、wait、clear。 事件处理的机制:全局定义了一个“Flag”,如果“Flag”值为 False,那么当程序执行 event.wait 方法时就会阻塞,如果“Flag”值为True,那么event.wait 方法时便不再阻塞。 clear:将“Flag”设置为False
set:将“Flag”设置为True #_*_coding:utf-8_*_
#!/usr/bin/env python from multiprocessing import Process,Event
import time,random def car(e,n):
while True:
if not e.is_set(): #Flase
print('\033[31m红灯亮\033[0m,car%s等着' %n)
e.wait()
print('\033[32m车%s 看见绿灯亮了\033[0m' %n)
time.sleep(random.randint(3,6))
if not e.is_set():
continue
print('走你,car', n)
break def police_car(e,n):
while True:
if not e.is_set():
print('\033[31m红灯亮\033[0m,car%s等着' % n)
e.wait(1)
print('灯的是%s,警车走了,car %s' %(e.is_set(),n))
break def traffic_lights(e,inverval):
while True:
time.sleep(inverval)
if e.is_set():
e.clear() #e.is_set() ---->False
else:
e.set() if __name__ == '__main__':
e=Event()
# for i in range(10):
# p=Process(target=car,args=(e,i,))
# p.start() for i in range(5):
p = Process(target=police_car, args=(e, i,))
p.start()
t=Process(target=traffic_lights,args=(e,10))
t.start() print('============》')
Event同线程一样
五、进程池pool
开多进程的目的是为了并发,如果有多核,通常有几个核就开几个进程,进程开启过多,效率反而会下降(开启进程是需要占用系统资源的,而且开启多余核数目的进程也无法做到并行),但很明显需要并发执行的任务要远大于核数,这时我们就可以通过维护一个进程池来控制进程数目,比如httpd的进程模式,规定最小进程数和最大进程数...
当被操作对象数目不大时,可以直接利用multiprocessing中的Process动态成生多个进程,十几个还好,但如果是上百个,上千个目标,手动的去限制进程数量却又太过繁琐,此时可以发挥进程池的功效。
而且对于远程过程调用的高级应用程序而言,应该使用进程池,Pool可以提供指定数量的进程,供用户调用,当有新的请求提交到pool中时,如果池还没有满,那么就会创建一个新的进程用来执行该请求;但如果池中的进程数已经达到规定最大值,那么该请求就会等待,直到池中有进程结束,就重用进程池中的进程。
在利用Python进行系统管理的时候,特别是同时操作多个文件目录,或者远程控制多台主机,并行操作可以节约大量的时间。
创建进程池的类
Pool([numprocess [,initializer [, initargs]]]):创建进程池
参数介绍:
numprocess:要创建的进程数,如果省略,将默认使用cpu_count()的值
initializer:是每个工作进程启动时要执行的可调用对象,默认为None
initargs:是要传给initializer的参数组
方法介绍:
主要方法
p.apply(func [, args [, kwargs]]):在一个池工作进程中执行func(*args,**kwargs),然后返回结果。需要强调的是:此操作并不会在所有池工作进程中并执行func函数。如果要通过不同参数并发地执行func函数,必须从不同线程调用p.apply()函数或者使用p.apply_async()
p.apply_async(func [, args [, kwargs]]):在一个池工作进程中执行func(*args,**kwargs),然后返回结果。此方法的结果是AsyncResult类的实例,callback是可调用对象,接收输入参数。当func的结果变为可用时,将理解传递给callback。callback禁止执行任何阻塞操作,否则将接收其他异步操作中的结果。 p.close():关闭进程池,防止进一步操作。如果所有操作持续挂起,它们将在工作进程终止前完成
P.jion():等待所有工作进程退出。此方法只能在close()或teminate()之后调用
其他方法(了解)
方法apply_async()和map_async()的返回值是AsyncResul的实例obj。实例具有以下方法
obj.get():返回结果,如果有必要则等待结果到达。timeout是可选的。如果在指定时间内还没有到达,将引发一场。如果远程操作中引发了异常,它将在调用此方法时再次被引发。
obj.ready():如果调用完成,返回True
obj.successful():如果调用完成且没有引发异常,返回True,如果在结果就绪之前调用此方法,引发异常
obj.wait([timeout]):等待结果变为可用。
obj.terminate():立即终止所有工作进程,同时不执行任何清理或结束任何挂起工作。如果p被垃圾回收,将自动调用此函数
应用:
提交任务,并在主进程中拿到结果(之前的Process是执行任务,结果放到队列里,现在可以在主进程中直接拿到结果)
from multiprocessing import Pool
import time
def work(n):
print('开工啦...')
time.sleep(3)
return n**2 if __name__ == '__main__':
q=Pool() #异步apply_async用法:如果使用异步提交的任务,主进程需要使用jion,等待进程池内任务都处理完,然后可以用get收集结果,否则,主进程结束,进程池可能还没来得及执行,也就跟着一起结束了
res=q.apply_async(work,args=(2,))
q.close()
q.join() #join在close之后调用
print(res.get()) #同步apply用法:主进程一直等apply提交的任务结束后才继续执行后续代码
# res=q.apply(work,args=(2,))
# print(res)
#一:使用进程池(非阻塞,apply_async)
#coding: utf-8
from multiprocessing import Process,Pool
import time def func(msg):
print( "msg:", msg)
time.sleep(1)
return msg if __name__ == "__main__":
pool = Pool(processes = 3)
res_l=[]
for i in range(10):
msg = "hello %d" %(i)
res=pool.apply_async(func, (msg, )) #维持执行的进程总数为processes,当一个进程执行完毕后会添加新的进程进去
res_l.append(res)
print("==============================>") #没有后面的join,或get,则程序整体结束,进程池中的任务还没来得及全部执行完也都跟着主进程一起结束了 pool.close() #关闭进程池,防止进一步操作。如果所有操作持续挂起,它们将在工作进程终止前完成
pool.join() #调用join之前,先调用close函数,否则会出错。执行完close后不会有新的进程加入到pool,join函数等待所有子进程结束 print(res_l) #看到的是<multiprocessing.pool.ApplyResult object at 0x10357c4e0>对象组成的列表,而非最终的结果,但这一步是在join后执行的,证明结果已经计算完毕,剩下的事情就是调用每个对象下的get方法去获取结果
for i in res_l:
print(i.get()) #使用get来获取apply_aync的结果,如果是apply,则没有get方法,因为apply是同步执行,立刻获取结果,也根本无需get #二:使用进程池(阻塞,apply)
#coding: utf-8
from multiprocessing import Process,Pool
import time def func(msg):
print( "msg:", msg)
time.sleep(0.1)
return msg if __name__ == "__main__":
pool = Pool(processes = 3)
res_l=[]
for i in range(10):
msg = "hello %d" %(i)
res=pool.apply(func, (msg, )) #维持执行的进程总数为processes,当一个进程执行完毕后会添加新的进程进去
res_l.append(res) #同步执行,即执行完一个拿到结果,再去执行另外一个
print("==============================>")
pool.close()
pool.join() #调用join之前,先调用close函数,否则会出错。执行完close后不会有新的进程加入到pool,join函数等待所有子进程结束 print(res_l) #看到的就是最终的结果组成的列表
for i in res_l: #apply是同步的,所以直接得到结果,没有get()方法
print(i)
详解:apply_async与apply
#coding: utf-8
import multiprocessing
import os, time, random def Lee():
print("\nRun task Lee-%s" %(os.getpid())) #os.getpid()获取当前的进程的ID
start = time.time()
time.sleep(random.random() * 10) #random.random()随机生成0-1之间的小数
end = time.time()
print('Task Lee, runs %0.2f seconds.' %(end - start)) def Marlon():
print("\nRun task Marlon-%s" %(os.getpid()))
start = time.time()
time.sleep(random.random() * 40)
end=time.time()
print('Task Marlon runs %0.2f seconds.' %(end - start)) def Allen():
print("\nRun task Allen-%s" %(os.getpid()))
start = time.time()
time.sleep(random.random() * 30)
end = time.time()
print('Task Allen runs %0.2f seconds.' %(end - start)) def Frank():
print("\nRun task Frank-%s" %(os.getpid()))
start = time.time()
time.sleep(random.random() * 20)
end = time.time()
print('Task Frank runs %0.2f seconds.' %(end - start)) def Egon():
print("\nRun task Egon-%s" %(os.getpid()))
start = time.time()
time.sleep(random.random() * 20)
end = time.time()
print('Task Egon runs %0.2f seconds.' %(end - start)) def Lily():
print("\nRun task Lily-%s" %(os.getpid()))
start = time.time()
time.sleep(random.random() * 20)
end = time.time()
print('Task Lily runs %0.2f seconds.' %(end - start)) if __name__=='__main__':
function_list= [Lee, Marlon, Allen, Frank, Egon, Lily]
print("parent process %s" %(os.getpid())) pool=multiprocessing.Pool(4)
for func in function_list:
pool.apply_async(func) #Pool执行函数,apply执行函数,当有一个进程执行完毕后,会添加一个新的进程到pool中 print('Waiting for all subprocesses done...')
pool.close()
pool.join() #调用join之前,一定要先调用close() 函数,否则会出错, close()执行后不会有新的进程加入到pool,join函数等待素有子进程结束
print('All subprocesses done.')
例子
#Pool内的进程数默认是cpu核数,假设为4(查看方法os.cpu_count())
#开启6个客户端,会发现2个客户端处于等待状态
#在每个进程内查看pid,会发现pid使用为4个,即多个客户端公用4个进程
from socket import *
from multiprocessing import Pool
import os server=socket(AF_INET,SOCK_STREAM)
server.setsockopt(SOL_SOCKET,SO_REUSEADDR,1)
server.bind(('127.0.0.1',8080))
server.listen(5) def talk(conn,client_addr):
print('进程pid: %s' %os.getpid())
while True:
try:
msg=conn.recv(1024)
if not msg:break
conn.send(msg.upper())
except Exception:
break if __name__ == '__main__':
p=Pool()
while True:
conn,client_addr=server.accept()
p.apply_async(talk,args=(conn,client_addr))
# p.apply(talk,args=(conn,client_addr)) #同步的话,则同一时间只有一个客户端能访问
练习重写socket维护一个池子
回调函数(apply_async的扩展用法)
不需要回调函数的场景:如果在主进程中等待进程池中所有任务都执行完毕后,再统一处理结果,则无需回调函数
from multiprocessing import Pool
import time,random,os def work(n):
time.sleep(1)
return n**2
if __name__ == '__main__':
p=Pool() res_l=[]
for i in range(10):
res=p.apply_async(work,args=(i,))
res_l.append(res) p.close()
p.join() #等待进程池中所有进程执行完毕 nums=[]
for res in res_l:
nums.append(res.get()) #拿到所有结果
print(nums) #主进程拿到所有的处理结果,可以在主进程中进行统一进行处理
2 需要回调函数的场景:进程池中任何一个任务一旦处理完了,就立即告知主进程:我好了额,你可以处理我的结果了。主进程则调用一个函数去处理该结果,该函数即回调函数
我们可以把耗时间(阻塞)的任务放到进程池中,然后指定回调函数(主进程负责执行),这样主进程在执行回调函数时就省去了I/O的过程,直接拿到的是任务的结果。
from multiprocessing import Pool
import time,random,os def get_page(url):
print('(进程 %s) 正在下载页面 %s' %(os.getpid(),url))
time.sleep(random.randint(1,3))
return url #用url充当下载后的结果 def parse_page(page_content):
print('<进程 %s> 正在解析页面: %s' %(os.getpid(),page_content))
time.sleep(1)
return '{%s 回调函数处理结果:%s}' %(os.getpid(),page_content) if __name__ == '__main__':
urls=[
'http://maoyan.com/board/1',
'http://maoyan.com/board/2',
'http://maoyan.com/board/3',
'http://maoyan.com/board/4',
'http://maoyan.com/board/5',
'http://maoyan.com/board/7', ]
p=Pool()
res_l=[] #异步的方式提交任务,然后把任务的结果交给callback处理
#注意:会专门开启一个进程来处理callback指定的任务(单独的一个进程,而且只有一个)
for url in urls:
res=p.apply_async(get_page,args=(url,),callback=parse_page)
res_l.append(res) #异步提交完任务后,主进程先关闭p(必须先关闭),然后再用p.join()等待所有任务结束(包括callback)
p.close()
p.join()
print('{主进程 %s}' %os.getpid()) #收集结果,发现收集的是get_page的结果
#所以需要注意了:
#1. 当我们想要在将get_page的结果传给parse_page处理,那么就不需要i.get(),通过指定callback,就可以将i.get()的结果传给callback执行的任务
#2. 当我们想要在主进程中处理get_page的结果,那就需要使用i.get()获取后,再进一步处理
for i in res_l: #本例中,下面这两步是多余的
callback_res=i.get()
print(callback_res) '''
打印结果:
(进程 52346) 正在下载页面 http://maoyan.com/board/1
(进程 52347) 正在下载页面 http://maoyan.com/board/2
(进程 52348) 正在下载页面 http://maoyan.com/board/3
(进程 52349) 正在下载页面 http://maoyan.com/board/4
(进程 52348) 正在下载页面 http://maoyan.com/board/5
<进程 52345> 正在解析页面: http://maoyan.com/board/3
(进程 52346) 正在下载页面 http://maoyan.com/board/7
<进程 52345> 正在解析页面: http://maoyan.com/board/1
<进程 52345> 正在解析页面: http://maoyan.com/board/2
<进程 52345> 正在解析页面: http://maoyan.com/board/4
<进程 52345> 正在解析页面: http://maoyan.com/board/5
<进程 52345> 正在解析页面: http://maoyan.com/board/7
{主进程 52345}
http://maoyan.com/board/1
http://maoyan.com/board/2
http://maoyan.com/board/3
http://maoyan.com/board/4
http://maoyan.com/board/5
http://maoyan.com/board/7
'''
from multiprocessing import Pool
import time,random
import requests
import re def get_page(url,pattern):
headers = {'content-type': 'application/json',
'User-Agent': 'Mozilla/5.0 (X11; Ubuntu; Linux x86_64; rv:22.0) Gecko/20100101 Firefox/22.0'} response=requests.get(url,headers=headers)
if response.status_code == 200:
print(response.text)
return (response.text,pattern) def parse_page(info):
page_content,pattern=info
res=re.findall(pattern,page_content)
for item in res:
dic={
'index':item[0],
'title':item[1],
'actor':item[2].strip()[3:],
'time':item[3][5:],
'score':item[4]+item[5] }
print(dic)
if __name__ == '__main__':
pattern1=re.compile(r'<dd>.*?board-index.*?>(\d+)<.*?title="(.*?)".*?star.*?>(.*?)<.*?releasetime.*?>(.*?)<.*?integer.*?>(.*?)<.*?fraction.*?>(.*?)<',re.S) url_dic={
'http://maoyan.com/board/7':pattern1,
} p=Pool()
res_l=[]
for url,pattern in url_dic.items():
res=p.apply_async(get_page,args=(url,pattern),callback=parse_page)
res_l.append(res) for i in res_l:
i.get() '''
{'index': '1', 'title': '摔跤吧!爸爸', 'actor': '阿米尔·汗,萨卡诗·泰瓦,法缇玛·萨那·纱卡', 'time': '2017-05-05', 'score': '9.8'}
{'index': '2', 'title': '重返·狼群', 'actor': '李微漪,亦风', 'time': '2017-06-16', 'score': '9.3'}
{'index': '3', 'title': '忠爱无言', 'actor': '高强,于月仙,李玉峰', 'time': '2017-06-09', 'score': '9.2'}
{'index': '4', 'title': '冈仁波齐', 'actor': '杨培,尼玛扎堆,斯朗卓嘎', 'time': '2017-06-20', 'score': '9.0'}
{'index': '5', 'title': '雄狮', 'actor': '戴夫·帕特尔,鲁妮·玛拉,大卫·文翰', 'time': '2017-06-22', 'score': '8.8'}
{'index': '6', 'title': '原谅他77次', 'actor': '蔡卓妍,周柏豪,钟欣潼', 'time': '2017-06-23', 'score': '8.6'}
{'index': '7', 'title': '神奇女侠', 'actor': '盖尔·加朵,克里斯·派恩,罗宾·怀特', 'time': '2017-06-02', 'score': '8.6'}
{'index': '8', 'title': '哆啦A梦:大雄的南极冰冰凉大冒险', 'actor': '水田山葵,山新,大原惠美', 'time': '2017-05-30', 'score': '8.6'}
{'index': '9', 'title': '潜艇总动员之时光宝盒', 'actor': '范楚绒,洪海天,谢元真', 'time': '2015-05-29', 'score': '8.5'}
{'index': '10', 'title': '六人晚餐', 'actor': '窦骁,张钧甯,邬君梅', 'time': '2017-06-16', 'score': '8.2'}
'''
爬虫案例
六、paramiko使用
paramiko是一个用于做远程控制的模块,使用该模块可以对远程的服务器进行命令或文件操作,fabric和ansible内部远程管理都是基于paramiko来实现的
下载安装:
pip3 install paramiko #python2需要安装pycrypto
#!/usr/bin/env python
#coding:utf-8 import paramiko ssh = paramiko.SSHClient()
ssh.set_missing_host_key_policy(paramiko.AutoAddPolicy())
ssh.connect('192.168.1.108', 22, 'alex', '')
stdin, stdout, stderr = ssh.exec_command('df')
print stdout.read()
ssh.close();
执行命令用户密码
import paramiko private_key_path = '/home/auto/.ssh/id_rsa'
key = paramiko.RSAKey.from_private_key_file(private_key_path) ssh = paramiko.SSHClient()
ssh.set_missing_host_key_policy(paramiko.AutoAddPolicy())
ssh.connect('主机名 ', 端口, '用户名', key) stdin, stdout, stderr = ssh.exec_command('df')
print stdout.read()
ssh.close()
执行命令秘钥
import os,sys
import paramiko t = paramiko.Transport(('182.92.219.86',22))
t.connect(username='wupeiqi',password='')
sftp = paramiko.SFTPClient.from_transport(t)
sftp.put('/tmp/test.py','/tmp/test.py')
t.close() import os,sys
import paramiko t = paramiko.Transport(('182.92.219.86',22))
t.connect(username='wupeiqi',password='')
sftp = paramiko.SFTPClient.from_transport(t)
sftp.get('/tmp/test.py','/tmp/test2.py')
t.close()
上传或下载文件 - 用户名+密码
import paramiko pravie_key_path = '/home/auto/.ssh/id_rsa'
key = paramiko.RSAKey.from_private_key_file(pravie_key_path) t = paramiko.Transport(('182.92.219.86',22))
t.connect(username='wupeiqi',pkey=key) sftp = paramiko.SFTPClient.from_transport(t)
sftp.put('/tmp/test3.py','/tmp/test3.py') t.close() import paramiko pravie_key_path = '/home/auto/.ssh/id_rsa'
key = paramiko.RSAKey.from_private_key_file(pravie_key_path) t = paramiko.Transport(('182.92.219.86',22))
t.connect(username='wupeiqi',pkey=key) sftp = paramiko.SFTPClient.from_transport(t)
sftp.get('/tmp/test3.py','/tmp/test4.py') t.close()
上传或下载文件 - 密钥
七、进程和线程区别:
1、进程内存独立,线程共享同一进程的内存
2、进程是资源的集合,线程是执行单位
3、进程之前不能直接通信,可以借助(队列,管道等),线程可以相互通信
4、创建新的进程非常消耗系统资源,线程非常轻量,只保存线程需要运行的必要数据,如上下文,程序堆栈
5、同一进程里的线程可以相互控制,进程中父进程可以控制子进程
表面看是并发处理,其实不是,是因为cpu上下文切换速度太快,所以让人理解为是并发的
import threading
import time #第一种方法实例化
def sayhi(num):
print('running on num %s' %(num))
time.sleep(3) if __name__ == '__main__':
t1 = threading.Thread(target=sayhi,args=(1,)) #实例化线程
t2 = threading.Thread(target=sayhi, args=(1,)) t1.start() #执行start方法
t2.start()
print(threading.active_count()) #统计线程数量
print(t1.getName())
print(t2.getName())
#第二种方法类的继承
class MyThread(threading.Thread):
def __init__(self,num):
super().__init__()
self.num = num def run(self):
print('running on num %s' % (self.num))
print('start time : %s'%(time.time()))
time.sleep(3)
print('end time : %s'%(time.time()))
if __name__ == '__main__':
t1 = MyThread(1)
t2 = MyThread(2)
t1.start()
t2.start() '''
输出:
running on num 1
start time : 1498733474.1893
running on num 2
start time : 1498733474.1893
end time : 1498733477.1893
end time : 1498733477.1893 '''