【Scrapy(一)】 Scrapy爬虫的基础执行流程

【Scrapy(一)】 Scrapy爬虫的基础执行流程

 

 

 

 【Scrapy(一)】 Scrapy爬虫的基础执行流程

 

 

【Scrapy(一)】 Scrapy爬虫的基础执行流程

 

 

 

【Scrapy(一)】 Scrapy爬虫的基础执行流程

 

 

 

安装scrapy模块 :

  pip install scrapy 

创建scrapy项目

  1.scrapy startprojecty 项目名称 

  注意:如果创建失败,可以先卸载原有的scrapy模块,使用pip3 intall scrapy 进行安装

      【Scrapy(一)】 Scrapy爬虫的基础执行流程

  【Scrapy(一)】 Scrapy爬虫的基础执行流程

 

  2.生成一个爬虫

  scrapy genspider 爬虫名 要爬取的域名    eg: scrapy genspider itcast  itcast.cn 

  如下图:

  【Scrapy(一)】 Scrapy爬虫的基础执行流程

 

 

   【Scrapy(一)】 Scrapy爬虫的基础执行流程

 

 

 

  3.启动爬虫 scrapy crawl itcast 

    注意:启动爬虫的位置是在项目目录中 ,也就是在如下图

  【Scrapy(一)】 Scrapy爬虫的基础执行流程

 

 

 

   

 注意事项:

  1.爬虫中定义的parse()方法和Pipline中定义的 process_item()方法的方法名不能修改

  【Scrapy(一)】 Scrapy爬虫的基础执行流程

 

 

   【Scrapy(一)】 Scrapy爬虫的基础执行流程

 

 

   2.Pipline中的return 返回值是将数据传递给下一个Pipline,如果取消return 关键字,则下一个Pipline接受到的数据为None

  【Scrapy(一)】 Scrapy爬虫的基础执行流程

 

 

   3.可以定义多个Pipline,多个Pipline的执行循序在settings.py文件中配置     ,配置的数字越小,Pipline越先执行

       【Scrapy(一)】 Scrapy爬虫的基础执行流程  

       【Scrapy(一)】 Scrapy爬虫的基础执行流程      4. yield 不能传递列表 只能传递Reqeust BaseItem dict None (原因,传递列表意义不大,数据一次性加载到内存,占用内存较高)

  【Scrapy(一)】 Scrapy爬虫的基础执行流程

 

 

 

   

  

上一篇:redis的pipline使用


下一篇:redis pipline与multi