豆瓣Top250电影信息爬取+使用多线程提高效率实现信息爬取(随拿随用呦!)

第一部分:直接获取!!! 1.目标URL:https://movie.douban.com/top250!

豆瓣Top250电影信息爬取+使用多线程提高效率实现信息爬取(随拿随用呦!)

2.python中利用requests+etree+re+json+fake_useragent模块实现:(代码没有任何问题,可以随拿随用!)
import requests
from lxml import etree
import re
import json
from fake_useragent import UserAgent

def films(num):
    page_url="https://movie.douban.com/top250?start={}&filter=".format(num)
    # 添加UA以防最基础的UA反爬!
    headers={
        "User-Agent": UserAgent().random
    }
    res=requests.get(page_url,headers=headers)

    # 解析数据
    html=etree.HTML(res.text)
    # 定义空字典:存放处理过后的目标数据!
    film_info = {}
    films_info = html.xpath("//div[@class='info']")
    # 一次打开文件,写完全部目标数据后再进行关闭文件,节省资源!
    with open("films_info.json", 'a',encoding='utf-8') as f:
        for film_one in films_info:
            # 电影名称
            film_name = film_one.xpath("./div/a/span[1]/text()")[0]
            # 电影导演+主演       注意:电影导演和主演在网页中是放在同一个p标签下,所以要进行特殊处理!
            film_author_actor = film_one.xpath("./div[2]/p/text()")[0].strip()
            # 电影导演            反复观察可知:if中的为电影导演和主演靠三个\xa0,即空格分开,电影导演在前!    else中的为电影信息只有导演,连主演的主都没的!
            if "主" in film_author_actor:
                film_author_test = re.findall(': (.*)\\xa0',film_author_actor)[0].strip()
                film_author = re.sub('\\xa0','',film_author_test)
            else:
                film_author_test = re.findall(': (.*)',film_author_actor)[0]
                film_author = re.sub('\\xa0', '', film_author_test)
            # 电影主演             注意:有个别电影没有主演信息!(仅有一个主字或者主演两个字的!通过if筛选掉!)
            if "主演" in film_author_actor and len(re.findall('\\xa0主演: (.*)',film_author_actor))==1:
                film_actor_test = re.findall('\\xa0主演: (.*)',film_author_actor)[0].strip()
                film_actor = re.sub('\\xa0','',film_actor_test)
            else:
                film_actor = "空"
            # 电影分类             注意:分类信息中有些不必要的空格,通过re中的sub方法删除!
            film_category_test = film_one.xpath("./div[2]/p/text()")[1].strip()
            film_category = re.sub('\\xa0','',film_category_test)
            # 电影评分
            film_score = film_one.xpath("./div[2]/div/span[2]/text()")[0]

            # 将数据放入字典!
            film_info["film_name"] = film_name
            film_info["film_author"] = film_author
            film_info["film_actor"] = film_actor
            film_info["film_category"] = film_category
            film_info["film_score"] = film_score

            # 序列化的过程:将字典格式转为json格式
            content = json.dumps(film_info,ensure_ascii=False) + "," + "\n"
            f.write(content)

for i in range(9):
    films(i*25)

3.实现效果:可以完整正确无误的获取豆瓣Top250中的所有250部电影的目标信息!

豆瓣Top250电影信息爬取+使用多线程提高效率实现信息爬取(随拿随用呦!)




第二部分:配合使用多线程提高效率!!!

关于线程的讲解!

# 协程:微线程  可以单线程实现任务切换

# 多进程,多线程,多协程:目的都是提高效率。

# 多进程:适用于CPU密集型(比如:计算,图形处理)
# 多线程:适用于IP密集型(比如:http请求,文件打开关闭)
# 爬虫就可以理解为IP密集型!
import requests
from lxml import etree
import re
import json
from fake_useragent import UserAgent
import time
import threading

# for循环是顺序执行,有一个需求:使用多线程完成10个页面并行获取

def films(num):
    page_url="https://movie.douban.com/top250?start={}&filter=".format(num)
    # 添加UA以防最基础的UA反爬!
    headers={
        "User-Agent": UserAgent().random
    }
    res=requests.get(page_url,headers=headers)

    # 解析数据
    html=etree.HTML(res.text)
    # 定义空字典:存放处理过后的目标数据!
    film_info = {}
    films_info = html.xpath("//div[@class='info']")
    # 一次打开文件,写完全部目标数据后再进行关闭文件,节省资源!
    with open("films_info.json", 'a',encoding='utf-8') as f:
        for film_one in films_info:
            # 电影名称
            film_name = film_one.xpath("./div/a/span[1]/text()")[0]
            # 电影导演+主演       注意:电影导演和主演在网页中是放在同一个p标签下,所以要进行特殊处理!
            film_author_actor = film_one.xpath("./div[2]/p/text()")[0].strip()
            # 电影导演            反复观察可知:if中的为电影导演和主演靠三个\xa0,即空格分开,电影导演在前!    else中的为电影信息只有导演,连主演的主都没的!
            if "主" in film_author_actor:
                film_author_test = re.findall(': (.*)\\xa0',film_author_actor)[0].strip()
                film_author = re.sub('\\xa0','',film_author_test)
            else:
                film_author_test = re.findall(': (.*)',film_author_actor)[0]
                film_author = re.sub('\\xa0', '', film_author_test)
            # 电影主演             注意:有个别电影没有主演信息!(仅有一个主字或者主演两个字的!通过if筛选掉!)
            if "主演" in film_author_actor and len(re.findall('\\xa0主演: (.*)',film_author_actor))==1:
                film_actor_test = re.findall('\\xa0主演: (.*)',film_author_actor)[0].strip()
                film_actor = re.sub('\\xa0','',film_actor_test)
            else:
                film_actor = "空"
            # 电影分类             注意:分类信息中有些不必要的空格,通过re中的sub方法删除!
            film_category_test = film_one.xpath("./div[2]/p/text()")[1].strip()
            film_category = re.sub('\\xa0','',film_category_test)
            # 电影评分
            film_score = film_one.xpath("./div[2]/div/span[2]/text()")[0]

            # 将数据放入字典!
            film_info["film_name"] = film_name
            film_info["film_author"] = film_author
            film_info["film_actor"] = film_actor
            film_info["film_category"] = film_category
            film_info["film_score"] = film_score

            # 序列化的过程:将字典格式转为json格式
            content = json.dumps(film_info,ensure_ascii=False) + "," + "\n"
            f.write(content)

start_time = time.time()
# 注意:因为使用的是多线程,所以获取的10页数据是不按顺序来的!
for i in range(10):
    thread_douban = threading.Thread(target=films,args=(i*25,))
    thread_douban.start()
    thread_douban.join()

end_time = time.time()
print(end_time-start_time)



上一篇:导出 Git log 日志


下一篇:JDK 命令之 javadoc -- 生成API文档