在爬虫代码的编写中,requests请求网页的时候常常请求失败或错误,一般的操作是各种判断状态和超时,需要多次重试请求,这种情况下,如果想优雅的实现功能,可以学习下retrying包下的retry装饰器的使用
安装:pip install retrying
在@retry()装饰器中,比较重要的几个参数如下:
)
:
raise requests.RequestException('my_request_get error!!!!')
return response