起点中文网小说爬取-etree,xpath,os

本文章主要是lxml库的etree解析抽取与xpath解析的应用,还使用了os库写文件

import os
import requests
from lxml import etree#lxml库解析HTML、xml文件抽取想要的数据
#设计模式--面向对象
class Spider(object):
    def start_request(self):
        #1.请求网站拿到数据,抽取小说名创建文件夹,抽取
        response=requests.get('https://www.qidian.com/all')
        # print(response.text)
        html=etree.HTML(response.text)#结构化
        Bigsrc_list=html.xpath('//div[@class="book-mid-info"]/h4/a/@href')
        #//:选取元素,而不考虑元素的具体位置;     @:选取属性
        Bigtit_list=html.xpath('//div[@class="book-mid-info"]/h4/a/text()')
        # print(Bigsrc_list,Bigtit_list)
        for Bigsrc,Bigtit in zip(Bigsrc_list,Bigtit_list):
            if os.path.exists(Bigtit)==False:#如果不存在文件夹名为该小说名,就创建
                os.mkdir(Bigtit)
            # print(Bigsrc,Bigtit)
            self.file_data(Bigsrc,Bigtit)#调用下一个函数

    def file_data(self, Bigsrc, Bigtit):
        # 2.请求小说,拿到数据,抽取章名,抽取文章链接
        response = requests.get("https:" + Bigsrc)#补上缺少的https前缀
        html = etree.HTML(response.text)#etree.HTML可用于在python代码中嵌入“html文本”。
        listsrc_list = html.xpath('//ul[@class="cf"]/li/a/@href')
        listtit_list = html.xpath('//ul[@class="cf"]/li/a/text()')
        for Listsrc, Listtit in zip(listsrc_list, listtit_list):
            # print(Listsrc, Listtit)
            self.finally_file(Listsrc, Listtit,Bigtit)

    def finally_file(self,Listsrc, Listtit,Bigtit):
        # 3.请求文章拿到抽取文章内容,创建文件保存到相应文件夹
        response=requests.get("https:"+Listsrc)
        html=etree.HTML(response.text)#结构化
        content="\n".join(html.xpath('//div[@class="read-content j_readContent"]/p/text()'))
        #S.join()返回一个字符串,元素之间的分隔符是S
        file_name=Bigtit+"\\"+Listtit+".txt"
        #创建Bigtit文件夹下的Listtit.txt文件
        print("正在存储文件"+file_name)
        with open(file_name,"a",encoding="utf-8")as f:
            f.write(content)
if __name__=='__main__':
    spider = Spider()
    spider.start_request()

  

上一篇:xpath与lxml解析页面


下一篇:用Python的方式有条件地遍历列表中的项目