高效爬虫

目录

Gevent

gevent基础之阻塞,非阻塞

1.gevent中一个很大的改进就是将阻塞IO改为非阻塞IO;

  • 阻塞调用是指调用结果返回之前,当前线程会被挂起。函数只有在得到结果之后才会返回
  • 非阻塞指在不能立刻得到结果之前,该函数不会阻塞当前线程,而会立刻返回

同步,异步概念

1.同步就是发生调用时,一定等待结果返回,整个调用才结束;

2.异步就是发生调用后,立即返回,不等待结果返回。被调用者通过状态、通知来通知调用者,或通过回调函数处理这个调用。

高效爬虫

同步异步与阻塞,非阻塞区别

1.阻塞/非阻塞, 它们是程序在等待消息(无所谓同步或者异步)时的状态;

2.同步/异步,是程序获得关注消息通知的机制。

要实现异步的爬虫方式的话,需要用到多协程。在它的帮助下,我们能实现前面提到的“让多个爬虫替我们干活”

它的原理是:一个任务在执行过程中,如果遇到等待,就先去执行其他的任务

当等待结束,再回来继续之前的那个任务。

在计算机的世界,这种任务来回切换得非常快速,看上去就像多个任务在被同时执行一样。

这就好比当你要做一桌饭菜,你可以在等电饭煲蒸饭的时候去炒菜。而不是等饭做好,再去炒菜。你还是那个你,但工作时间就这样被缩短了。多协程能够缩短工作时间的原理,也是如此。

那么问题来了,-–怎么使用多协程?

gevent库

‘gevent’库,能让我们再python中实现多协程

接下来我会带你了解gevent的用法,和实操一个多协程案例:爬取8个网站(包括百度、新浪、搜狐、腾讯、网易、爱奇艺、天猫、凤凰)。

我们先用之前同步的爬虫方式爬取这8个网站,然后等下再和gevent异步爬取做一个对比。

import requests
from time import time

start = time()
url_list = ['https://www.baidu.com/',
            'https://www.sina.com.cn/',
            'https://www.qq.com/',
            'https://www.qq.com/',
            'https://www.163.com/',
            'http://www.iqiyi.com/',
            'https://www.tmall.com/',
            'http://www.ifeng.com/']
# 把8个网站封装成列表
for url in url_list:
    # 遍历url_list
    r = requests.get(url)
    print(url, time() - start, r.status_code)

结果

https://www.baidu.com/ 0 200
https://www.sina.com.cn/ 1 200
https://www.qq.com/ 2 200
https://www.163.com/ 2 200
http://www.iqiyi.com/ 3 200
https://www.tmall.com/ 3 200
http://www.ifeng.com/ 4 200
http://www.ifeng.com/ 4.37 200

现在,我们一行行来看刚刚用了gevent的代码。

在使用多进程加协程时,patch_all()后出现警告信息:MonkeyPatchWarning: Monkey-patching ssl after ssl has already been imported may lead to errors, including RecursionError。 有时会导致不能正常使用requests或者其他包,其实只要调整import的顺序即可,把import gevent,from gevent import monkey,monkey.patch_all()三行语句放在其他所有的import语句之前后,可以避免出现警告或者报错信息

import requests
from time import time
from gevent import monkey
#从gevent库里导入monkey模块
monkey.patch_all()
#monkey.patch_all()能把程序变成协作式运行,就是可以帮助程序实现异步。
import gevent,requests
#导入gevent、requests。

start = time()
url_list = ['https://www.baidu.com/',
            'https://www.sina.com.cn/',
            'https://www.qq.com/',
            'http://www.sohu.com/',
            'https://www.163.com/',
            'http://www.iqiyi.com/',
            'https://www.tmall.com/',
            'http://www.ifeng.com/']
                # 把8个网站封装成列表

def crawler(url):
    r = requests.get(url)
    # 用requests.get()函数爬取网站。
    print(url,time() - start, r.status_code)
    # 打印网址、请求运行时间、状态码。

tasks_list = []

for url in url_list:#遍历url_list。
    task = gevent.spawn(crawler,url)
    # 用gevent.spawn()函数创建任务。
    tasks_list.append(task)
    # 往任务列表添加任务。
gevent.joinall(tasks_list)
#执行任务列表里的所有任务,就是让爬虫开始爬取网站。
end = time()
#记录程序结束时间。
print(end-start)
#打印程序最终所需时间。

结果

https://www.baidu.com/ 0.7616446018218994 200
http://www.sohu.com/ 0.8563909530639648 200
http://www.ifeng.com/ 0.968092679977417 200
https://www.163.com/ 1.0633463859558105 200`
http://www.iqiyi.com/ 1.2518761157989502 200
https://www.qq.com/ 1.279768705368042 200
1.279768705368042

结果显而易见

Queue

麦子学院

1.Queue(队列),用于存取数据的有序数据结构;

2.最常见的是先进先出Queue。
高效爬虫

python内置Queue介绍

1.Queue 模块实现了多生产者、多消费者队列

它特别适用于信息必须在多个线程间安全地交换的多线程程序中。这个模块中的 Queue 类实现了所有必须的锁语义;

2.模块实现了三类队列,主要差别在于取得数据的顺序上

FIFO队列中,最早加入的任务会被最先得到。LIFO队列中,最后加入的任务会被最先得到(就像栈一样)。在优先队列中,任务被保持有序,拥有最小值的任务(优先级最高)被最先得到;

3.python内置Queue特点

虽然线程安全,但同步线程开销;

4.gevent中Queue

1)Queue(先进先出);

2)LifoQueue(先进后出);

3)PriorityQueue(优先级队列)。

5.gevent中Queue特点

无线程同步开销,但有Greenlet之间的线程内同步,无法线程间操作。
高效爬虫

当我们用多协程来爬虫,需要创建大量任务时,我们可以借助queue模块。

queue翻译成中文是队列的意思。我们可以用queue模块来存储任务,让任务都变成一条整齐的队列,就像银行窗口的排号做法。因为queue其实是一种有序的数据结构,可以用来存取数据。

这样,协程就可以从队列里把任务提取出来执行,直到队列空了,任务也就处理完了。就像银行窗口的工作人员会根据排号系统里的排号,处理客人的业务,如果已经没有新的排号,就意味着客户的业务都已办理完毕。

上一篇:python-在使用gevent的第一个函数完成后,如何生成另一个函数?


下一篇:165 python网络编程 - 单进程服务器(gevent版)