Scrapy基础(十)———同步机制将Item中的数据写在Mysql

  前面讲解到将Item中的所有字段都已经填写完成,那么接下来就是将他们存储到mysql数据库中,
那就用到了pipeline项目管道了;
  对项目管道的理解:做一个比喻,爬取好比是开采石油,Item装的都是原油,需要通过一系列的管道
和工艺进行提炼,而这些原油都是通过pipeline进行加工的,才能真正的到我们所能使用的油(数据)
  大致思路:
      1, 安装MySQLdb和连接数据库的驱动mysqlclient,并创建数据库和相应的表,创建和Item的字段
        一样的字段(注意各个字段的类型,长度和默认值);这些操作可通过navicat进行操作
      2,自定义pipeline,引入mysqldb库,将Item中的数据写入数据库
      3,在settings文件中注册这个管道,并给这个管道一个编号(这个管道在哪条工艺之后进行)

具体代码

 #引入操作数据库模块
import MySQLdb class MysqlPipeline(object):
'''
同步机制实现mysql写入操作
''' #定义初始化函数,当类被使用时自动调用这个函数,我们让他初始化时就连接上数据库
def __init__(self):
#取个变量名,连接数据库,依次是: host,user,password,dbname
self.conn = MySQLdb.connect("127.0.0.1","root","root","artical_spider")
#通过cursor()的方法获取游标
self.cursor = self.conn.cursor() #自定义的管道必须有此方法
def process_item(self,item,spider):
#要执行的插入sql语句
insert_sql = """
insert into jobbole_artical(title,creat_date,url,url_object_id,
front_image_url2,front_image_path,tags,comment_num,
fav_num,like_num,content
)
VALUES(%s,%s,%s,%s,%s,%s,%s,%s,%s,%s,%s)
""" #执行sql语句,注意后面是元组,将Item中的数据格式化填充到插入语句中
self.cursor.execute(insert_sql,(item["title"],item["creat_date"],item["url"],
item["url_object_id"],item["front_image_url2"],item["front_image_path"],
item["tags"],item["comment_num"],item["fav_num"],item["like_num"],item["content"])) #将sql语句提交到数据库执行
self.conn.commint()

注意:

一:

我们从前设置过

artical_item["front_image_url"] = [front_image_url]

这个Item是一个列表类型,当你写入数据库时候报错,

File "C:\Users\Administrator\Envs\artical_spider\lib\site-packages\MySQLdb\converters.py", line 90, in quote_tuple
    return "(%s)" % (','.join(escape_sequence(t, d)))
TypeError: sequence item 0: expected str instance, bytes found

当我们改为str时图片的下载路径又不能正常工作,

所以只能添加一个新的一样的Item,一个设置为列表,供图片下载,一个为写入数据库中做准备

二:

对于数据库各个字段的设置,这里可将一些字段设置为不为空,并且设置一些字段的默认值;

这里讲url_object_id设置成主键,主键不能为空且唯一;在

在写入数据库时,各个字段要和Item字段的顺序相对应

三:

关于python对数据库的操作,本篇参考了这篇博文

以下是运行结果

Scrapy基础(十)———同步机制将Item中的数据写在Mysql

'''

上一篇:ConvertHelper 通用类


下一篇:MVC4做网站后台:用户管理 ——用户组补充