Python爬虫学习总结(二)之LXML使用心得

解析模块的使用都是大同小异的。都是创建解析对象,定义解析规则,保存解析后的文件。

感觉LXML的优点最大的优点就是可以在Chrome按F12直接审查页面元素。右键复制为XPATH。

Python爬虫学习总结(二)之LXML使用心得

 然后再进行修改就可以了。如注释后面的语句#'string(//*[@id="content"])'需要解析哪些地方的语句就复制哪里的,然后修改子节点就行了。

具体的语法查看官方文档就可以了。

def parse_html(self,html):
        parse_html = etree.HTML(html)
        xpath_bds = '//*[@id="content"]/p/text()'#'string(//*[@id="content"])'
        r_list = parse_html.xpath(xpath_bds)
        return r_list

保存方式有俩种,一种是字符串的string(),解析语句放在括号中间。

一种是列表的解析语句放在text()前。

总结:不如re好用。

上一篇:python爬虫中解决第三方模块lxml中没有etree方法


下一篇:Python中xml.etree.ElementTree读写xml文件实例