目的:爬取昵称
目标网站:糗事百科
依赖的库文件:request、sys、beautifulSoup4、imp、io
Python使用版本:3.4
说明:参考http://cn.python-requests.org/zh_CN/latest/user/quickstart.html
步骤:
一、熟悉request
Request介绍:
Request库是一个python http库,其内部依赖urllib3库。
以下是它的功能特性:
国际化域名和 URL、Keep-Alive & 连接池、带持久 Cookie 的会话、浏览器式的 SSL 认证、基本/摘要式的身份认证、优雅的 key/value Cookie、自动解压、自动内容解码、Unicode 响应体、文件分块上传、连接超时、流下载、支持 .netrc、分块请求、线程安全。
Request API操作:
Request的API对所有HTTP请求类型都是显而易见的,例如对于HTTP的请求类型:
GET、POST、PUT、DELETE、HEAD和OPTIONSS
对应的request API操作为(例):
r = requests.get('https://github.com/timeline.json')
r = requests.post("http://httpbin.org/post")
r = requests.put("http://httpbin.org/put")
r = requests.delete("http://httpbin.org/delete")
r = requests.head("http://httpbin.org/get")
r = requests.options("http://httpbin.org/get")
本文主要针对request的获取操作来做说明:
以GitHubHub时间线和服务器响应的内容格式为例:
1、响应内容
import requests
r = requests.get('https://github.com/timeline.json')
r.text
Requests可以根据服务器响应的内容自动解码,支持大多数unicode,当然我们也可以以指定的解码格式来解码内容,如r.text前加上r.encoding = 'utf-8'.
2、二进制响应内容和json响应内容
r.content
r.json()
调用该两种方法分别替换上文的r.text,则分别表示字节的方式访问请求的内容,而非文本格式和以json的格式解码内容。
3、原始响应内容
import requests
r = requests.get('https://github.com/timeline.json',stream=True)
r.raw
r.raw.read(10)
#将获取的原始数据写入test.txt文件
with open('test.txt','wb') as fd:
for chunk in r.iter_content(10):
fd.write(chunk)
二、beautifulSoup介绍:
这是Python的一个库,在此主要的作用是从爬取到的网页内容中获取数据,Beautiful Soup提供一些简单的、python式的函数用来处理导航、搜索、修改分析树等功能。它是一个工具箱,通过解析文档为用户提供需要抓取的数据,因为简单,所以不需要多少代码就可以写出一个完整的应用程序。
三、爬取昵称
由于本人初次使用Python,所以就做一个最简单的爬虫吧!代码非常简单,就只是获取糗事百科的首页的昵称:
# -*- coding: UTF-8 -*-
from bs4 import BeautifulSoup
from imp import reload
import requests
import sys
import io
sys.stdout = io.TextIOWrapper(sys.stdout.buffer,encoding='utf8')
#解决unicode编码与ascll编码不兼容的问题
#reload(sys)
#sys.setdefaultencoding("utf-8")
############################
class Crawler(object):
def __init__(self):
print("开始爬取数据")
#getSource获取网页源代码
def getSource(self,url):
html = requests.get(url)
#print(str(html.text))可以在此打印,看是否抓取到内容
return html.text #主函数
if __name__=='__main__':
url = 'http://www.qiushibaike.com'
testCrawler = Crawler()
content = testCrawler.getSource(url)
soup = BeautifulSoup(content)
fd = open("crawler.txt", 'w')
for i in soup.find_all('h2'):
print(i.getText())
fd.write(i.getText()+'\n')
fd.close()