本文目的
已经学了几天python,今天通过对scrapy框架的认识,加深对python的印象。
另外
本博客是学习人工智能的记录,前期文章不会贴多少代码(关键也没能力写出优质python代码),更多是记录写文章时脑海中浮动的想法,自己是如何学习的。
第一部分,即【 自学人工智能:1-x 】 围绕python更新。往后继续采用【 M - N 】的格式,M是大分类,N是小篇章。因为学习过程中可能同时接收多个知识点,所以我这里很可能存在多个大分类M同时更新~
理解Scrapy框架
上篇文章提到爬虫,查阅资料时得知scrapy框架是爬网站数据的神器。根据手册尝试用scrapy进行网站数据采集。在此不得不提下图:
刚看到时因为图片文字是英文,加上对这类流程结构的图有一种排斥,于是扫一眼就不再看,随着对scrapy各部分有初步了解,再回来看这幅图时,似乎有点明白为何scrapy如此强大。
强烈的感受就是用scrapy分工明确:抓取url的、深入url采集内容的、处理数据的等,有条理又便于理解,反过来可以利用这种思路优化自己的爬虫程序。
而且scrapy提供了多个小工具,其中有的针对目标采集网站,快速进行测试。
总结
使用scrapy框架可以节省不少时间,减少了亲自写代码的量。由于自己的目标并不是做爬虫,而是为学习人工智能积攒知识0.0,本文极其浅显提了scrapy,未来真正用到时再做完善。