爬虫之SCRAPY

- scrapy环境的安装
      a. pip3 install wheel

      b. 下载twisted http://www.lfd.uci.edu/~gohlke/pythonlibs/#twisted

      c. 进入下载目录,执行 pip3 install Twisted‑17.1.0‑cp35‑cp35m‑win_amd64.whl

      d. pip3 install pywin32

      e. pip3 install scrapy

- scrapy使用
    - 1.创建一个工程:scrapy startproject ProName   (注  startproject    中间没有空格)
    - 2.cd ProName
    - 3.创建爬虫文件:scrapy genspider first www.xxx.com
    - 4.执行:(allowed_domains  注释掉)
        - settings.py:
            - 不遵从rbotes协议
            - 进行UA伪装
            - 指定日志等级:LOG_LEVEL = ‘ERROR’
        scrapy crawl spiderName

- 持久化存储
    - 基于终端指令:
        - 前提:只可以将parse方法的返回值进行本地文件的持久化存储
        - 指令:scrapy crawl spiderName -o filePath
    - 基于管道:
        - 编码流程:
            1.数据解析
            2.需要在item类中定义相关的属性(存储解析到的数据)(在 items.py 中添加属性)
            3.将解析到的数据存储或者封装到一个item类型的对象中(在 主文件里 实例化item 封装数据)
            4.将item对象提交到管道中(yield item)
            5.在管道中需要接收item,且将item对象中的数据进行任意形式的持久化操作(在piplines.py里添加

       6.在配置文件中开启管道(settings 里打开 ITEM_PIPELINES)

 

allowed_domains
上一篇:树莓派实现垃圾分类【深度学习图像识别】:keras+tensorflow


下一篇:python爬虫网页解析之lxml模块