Python数据分析–豆瓣电影Top250
利用Python爬取豆瓣电影TOP250并进行数据分析,对于众多爬虫爱好者,应该并不陌生。很多人都会以此作为第一个练手的小项目。当然这也多亏了豆瓣
的包容,没有加以太多的反爬措施,对新手比较友好。
数据爬取
翻页操作
第一页:https://movie.douban.com/top250 第二页:https://movie.douban.com/top250?start=25&filter= 第三页:https://movie.douban.com/top250?start=50&filter=
观察可知,我们只需要修改start参数即可
反扒说明
通过headers字段来反爬
headers中有很多字段,这些字段都有可能会被对方服务器拿过来进行判断是否为爬虫
1.1 通过headers中的User-Agent字段来反爬
- 反爬原理:爬虫默认情况下没有User-Agent,而是使用模块默认设置
- 解决方法:请求之前添加User-Agent即可;更好的方式是使用User-Agent池来解决(收集一堆User-Agent的方式,或者是随机生成User-Agent)
1.2 通过referer字段或者是其他字段来反爬
- 反爬原理:爬虫默认情况下不会带上referer字段,服务器端通过判断请求发起的源头,以此判断请求是否合法
- 解决方法:添加referer字段
1.3 通过cookie来反爬
- 反爬原因:通过检查cookies来查看发起请求的用户是否具备相应权限,以此来进行反爬
- 解决方案:进行模拟登陆,成功获取cookies之后在进行数据爬取
通过请求参数来反爬
请求参数的获取方法有很多,向服务器发送请求,很多时候需要携带请求参数,通常服务器端可以通过检查请求参数是否正确来判断是否为爬虫
2.1 通过从html静态文件中获取请求数据(github登录数据)
- 反爬原因:通过增加获取请求参数的难度进行反爬
- 解决方案:仔细分析抓包得到的每一个包,搞清楚请求之间的联系
2.2 通过发送请求获取请求数据
- 反爬原因:通过增加获取请求参数的难度进行反爬
- 解决方案:仔细分析抓包得到的每一个包,搞清楚请求之间的联系,搞清楚请求参数的来源
2.3 通过js生成请求参数
- 反爬原理:js生成了请求参数
- 解决方法:分析js,观察加密的实现过程,通过js2py获取js的执行结果,或者使用selenium来实现
2.4 通过验证码来反爬
- 反爬原理:对方服务器通过弹出验证码强制验证用户浏览行为
- 解决方法:打码平台或者是机器学习的方法识别验证码,其中打码平台廉价易用,更值得推荐
在这里我们只需要添加请求头即可
很多人学习python,不知道从何学起。
很多人学习python,掌握了基本语法过后,不知道在哪里寻找案例上手。
很多已经做案例的人,却不知道如何去学习更加高深的知识。
那么针对这三类人,我给大家提供一个好的学习平台,免费领取视频教程,电子书籍,以及课程的源代码!
QQ群:810735403
数据定位
这里我使用的是xpath
# -*- coding: utf-8 -*- # @Author: Kun import requests from lxml import etree import pandas as pd df = [] headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/89.0.4343.0 Safari/537.36', 'Referer': 'https://movie.douban.com/top250'} columns = ['排名','电影名称','导演','上映年份','制作国家','类型','评分','评价分数','短评'] def get_data(html): xp = etree.HTML(html) lis = xp.xpath('//*[@id="content"]/div/div[1]/ol/li') for li in lis: """排名、标题、导演、演员、""" ranks = li.xpath('div/div[1]/em/text()') titles = li.xpath('div/div[2]/div[1]/a/span[1]/text()') directors = li.xpath('div/div[2]/div[2]/p[1]/text()')[0].strip().replace("\xa0\xa0\xa0","\t").split("\t") infos = li.xpath('div/div[2]/div[2]/p[1]/text()')[1].strip().replace('\xa0','').split('/') dates,areas,genres = infos[0],infos[1],infos[2] ratings = li.xpath('.//div[@class="star"]/span[2]/text()')[0] scores = li.xpath('.//div[@class="star"]/span[4]/text()')[0][:-3] quotes = li.xpath('.//p[@class="quote"]/span/text()') for rank,title,director in zip(ranks,titles,directors): if len(quotes) == 0: quotes = None else: quotes = quotes[0] df.append([rank,title,director,dates,areas,genres,ratings,scores,quotes]) d = pd.DataFrame(df,columns=columns) d.to_excel('Top250.xlsx',index=False) for i in range(0,251,25): url = "https://movie.douban.com/top250?start={}&filter=".format(str(i)) res = requests.get(url,headers=headers) html = res.text get_data(html)
结果如下:
数据分析
获取数据后,就可以对自己感兴趣的内容进行分析了
数据预处理
- 上映年份格式不统一
year = [] for i in df["上映年份"]: i = i[0:4] year.append(i) df["上映年份"] = year df["上映年份"].value_counts() x1 = list(df["上映年份"].value_counts().sort_index().index) y1 = list(df["上映年份"].value_counts().sort_index().values) y1 = [str(i) for i in y1]
上映年份分布
c1 = ( Bar() .add_xaxis(x1) .add_yaxis("影片数量", y1) .set_global_opts( title_opts=opts.TitleOpts(title="Top250年份分布"), datazoom_opts=opts.DataZoomOpts(), ) .render("1.html") )
这里可以看出豆瓣电影TOP250里,电影的上映年份,多分布于80年代以后。其中有好几年是在10部及以上的。
评分分布情况
plt.figure(figsize=(10,6)) plt.hist(list(df["评分"]),bins=8,facecolor="blue", edgecolor="black", alpha=0.7) plt.show()
大多分布于「8.5」到「9.2」之间。最低「8.3」,最高「9.6」
排名与评分分布情况
plt.figure(figsize=(10,5), dpi=100) plt.scatter(df.index,df['评分']) plt.show()
总的来说,排名越靠前,评价人数越多,并且分数也越高。
评论人数TOP10
c2 = ( Bar() .add_xaxis(df1["电影名称"].to_list()) .add_yaxis("评论数", df1["评价分数"].to_list(),color=Faker.rand_color()) .reversal_axis() .set_series_opts(label_opts=opts.LabelOpts(position="right")) .set_global_opts(title_opts=opts.TitleOpts(title="电影评论Top10")) .render("2.html") )
让我们来看看人气最高的有哪些影片,你又看过几部呢?
导演排名
可以看到这些导演很