自学人工智能:1-3 接触scrapy框架

本文目的

已经学了几天python,今天通过对scrapy框架的认识,加深对python的印象。

另外

本博客是学习人工智能的记录,前期文章不会贴多少代码(关键也没能力写出优质python代码),更多是记录写文章时脑海中浮动的想法,自己是如何学习的。
第一部分,即【 自学人工智能:1-x 】 围绕python更新。往后继续采用【 M - N 】的格式,M是大分类,N是小篇章。因为学习过程中可能同时接收多个知识点,所以我这里很可能存在多个大分类M同时更新~

理解Scrapy框架

上篇文章提到爬虫,查阅资料时得知scrapy框架是爬网站数据的神器。根据手册尝试用scrapy进行网站数据采集。在此不得不提下图:
自学人工智能:1-3 接触scrapy框架
刚看到时因为图片文字是英文,加上对这类流程结构的图有一种排斥,于是扫一眼就不再看,随着对scrapy各部分有初步了解,再回来看这幅图时,似乎有点明白为何scrapy如此强大。

强烈的感受就是用scrapy分工明确:抓取url的、深入url采集内容的、处理数据的等,有条理又便于理解,反过来可以利用这种思路优化自己的爬虫程序。

而且scrapy提供了多个小工具,其中有的针对目标采集网站,快速进行测试。

总结

使用scrapy框架可以节省不少时间,减少了亲自写代码的量。由于自己的目标并不是做爬虫,而是为学习人工智能积攒知识0.0,本文极其浅显提了scrapy,未来真正用到时再做完善。

上一篇:使用BEEGO建立一个基本的API框架


下一篇:升級RedHat Enterprise Linux 5.2内核到5.3内核错误