Python爬虫数据解析(二)

xpath的使用

  • 安装
    -pip install lxml
  • 解析原理(流程)
    -实例化一个etree对象,将需要解析的数据加载到改对象中
    -调用etree对象中的xpath方法结合不同的xpath表达式进行标签定位和文本数据提取
  • etree对象实例化
    - etree.parse(“FilePath”):将本地数据加载到etree对象中
    - etree.HTML(page_text):将爬取的数据加载到该对象中
  • html中所有标签是遵循了树状结构
  • xpath方法的返回值是一个列表

使用

  • 标签定位
    - 最左侧/:表示从根标签开始定位
    - 最左侧//:任意标签开始定位
    - 非最左侧//:表示多个层级
    - 属性定位://tagName[@attrName = ‘Value’]
    - 索引定位:tagNmae[index],index索引从1开始
    - 模糊匹配:
    - //div[contains(@class,‘ng’)]
    - //div[starts-with(@class,‘ta’)]
  • 取属性
    - @attrName

实战:爬取所有城市

from lxml import etree
# 目的:使得xpath表达式具有更强的通用性
url = 'https://www.aqistudy.cn/historydata/'
page_text = requests.get(url,headers=headers).text

tree = etree.HTML(page_text)
# hot_cities = tree.xpath('//div[@class="bottom"]/ul/li/a/text()')
all_cities = tree.xpath('//div[@class="bottom"]/ul/div[2]/li/a/text() | //div[@class="bottom"]/ul/li/a/text()')
print(all_cities)
上一篇:Python(IT峰)笔记14-爬虫实战、认识爬虫,安装request库,发送get请求,请求头,post请求,cookie,session,xpath,xpath解析html,xpath常用规则


下一篇:python笔记28-lxml.etree爬取html内容