在Python中,数据存储方式分为同步存储和异步存储。同步写入速度比较慢,而爬虫速度比较快,有可能导致数据保存不完整,一部分数据没有入库。而异步可以将爬虫和写入数据库操作分开执行,互不影响,所以写入速度比较快,能够保证数据的完整性。
异步存储数据库大致看分为以下步骤:
1. 在settings中配置Mysql链接需要的参数(主机地址、用户账号、密码、需要操作的表名、编码格式等)
2. 自定义Pipeline,实现from_settings函数
3. from twisted.enterprise import adbapi 引入连接池模块
4. from pymysql import cursors 引入游标模块
5. 在from_settings中,准备链接数据库参数,创建db_pool连接池,创建返回当前类的对象,传入db_pool
6. 实现初始化函数,在初始化函数中,将db_pool赋值self的属性
7. 实现process_item函数
7.1 query = self.db_pool.runInteraction(执行插入数据操作的函数对象,函数需要参数),并接受执行返回结果
7.2 query.addErrback(错误回调函数,函数需要参数),添加执行sql失败回调的函数,在回调函数中对错误数据进一步处理
8. 实现插入数据操作的函数,准备sql,执行sql
9. 实现错误回调函数,在回调函数中对错误数据进一步处理
下面,我们以天堂图片网为例,大致熟悉一下异步存储:
1. 在存储之前,可以选择手动创建数据库(表名、字段名、字段类型等自己定义),也可以选择代码创建。
2. 存储数据之前还得先拿到数据
import scrapy from ..items import ImgItem class IvskySpider(scrapy.Spider): name = 'ivsky' allowed_domains = ['ivsky.com'] start_urls = ['http://www.ivsky.com/tupian/ziranfengguang/'] def parse(self, response): imgs = response.xpath('//div[@class="il_img"]/a/img') for img in imgs: alt = img.xpath('@alt').extract_first('') src = img.xpath('@src').extract_first('') item = ImgItem() item['alt'] = alt item['src'] = src yield item
3. 自定义item,并把数据传进去
import scrapy class IvskySpiderItem(scrapy.Item): # define the fields for your item here like: # name = scrapy.Field() pass class ImgItem(scrapy.Item): alt = scrapy.Field() src = scrapy.Field()
4. 接下来就是settings中的配置,代码如下(robots协议记得改为False):
MYSQL_HOST = '127.0.0.1' MYSQL_USER = 'root' MYSQL_PW = '123456' MYSQL_DB = 'ivskydb' MYSQL_CHARSET = 'utf8'
5. 再然后自定义pipeline,并把该pipeline在settings中配置(设置优先级):
from twisted.enterprise import adbapi from pymysql import cursors class TwistedMysqlPipeline(object): # 在调用TwistedMysqlPipeline时,第一个调用该函数 @classmethod def from_settings(cls, settings): #准备需要用到的链接mysql的参数 db_prams = dict( host=settings['MYSQL_HOST'], user=settings['MYSQL_USER'], password=settings['MYSQL_PW'], db=settings['MYSQL_DB'], port=3306, use_unicode=True, charset=settings['MYSQL_CHARSET'], # 指定使用的游标类型 cursorclass=cursors.DictCursor ) # 创建连接池对象,需要传入两个参数 # 1.使用操作mysql第三方包名 # 2.连接数据库需要的参数 db_pool = adbapi.ConnectionPool('pymysql', **db_prams) return cls(db_pool) def __init__(self, db_pool): # 将连接池对象赋值self.db_pool属性 self.db_pool = db_pool def process_item(self, item, spider): # 准备sql # 执行sql # 执行一个将item数据写入数据库的动作 # 1.执行操作的函数 # 2.执行函数需要的参数.... query = self.db_pool.runInteraction(self.insert_item, item) # 执行sql出现异常错误时,回调的函数 query.addErrback(self.handle_error, item, spider) return item # 插入数据出现错误时,回调的函数 def handle_error(self, failure, item, spider): print(failure) print(item) # 执行插入数据的函数 def insert_item(self, cursor, item): # 创建sql sql = "INSERT INTO ivs(alt,src)VALUES(%s,%s)" # 执行sql cursor.execute(sql,(item['alt'], item['src']))
6. pipeline在settings中的配置
ITEM_PIPELINES = { # 'ivsky_spider.pipelines.MysqlPipeline': 300, 'ivsky_spider.pipelines.TwistedMysqlPipeline': 300, }
代码到这里就结束了。
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持。
免责声明:本站资源来自互联网收集,仅供用于学习和交流,请遵循相关法律法规,本站一切资源不代表本站立场,如有侵权、后门、不妥请联系本站删除!
稳了!魔兽国服回归的3条重磅消息!官宣时间再确认!
昨天有一位朋友在大神群里分享,自己亚服账号被封号之后居然弹出了国服的封号信息对话框。
这里面让他访问的是一个国服的战网网址,com.cn和后面的zh都非常明白地表明这就是国服战网。
而他在复制这个网址并且进行登录之后,确实是网易的网址,也就是我们熟悉的停服之后国服发布的暴雪游戏产品运营到期开放退款的说明。这是一件比较奇怪的事情,因为以前都没有出现这样的情况,现在突然提示跳转到国服战网的网址,是不是说明了简体中文客户端已经开始进行更新了呢?
更新日志
- 凤飞飞《我们的主题曲》飞跃制作[正版原抓WAV+CUE]
- 刘嘉亮《亮情歌2》[WAV+CUE][1G]
- 红馆40·谭咏麟《歌者恋歌浓情30年演唱会》3CD[低速原抓WAV+CUE][1.8G]
- 刘纬武《睡眠宝宝竖琴童谣 吉卜力工作室 白噪音安抚》[320K/MP3][193.25MB]
- 【轻音乐】曼托凡尼乐团《精选辑》2CD.1998[FLAC+CUE整轨]
- 邝美云《心中有爱》1989年香港DMIJP版1MTO东芝首版[WAV+CUE]
- 群星《情叹-发烧女声DSD》天籁女声发烧碟[WAV+CUE]
- 刘纬武《睡眠宝宝竖琴童谣 吉卜力工作室 白噪音安抚》[FLAC/分轨][748.03MB]
- 理想混蛋《Origin Sessions》[320K/MP3][37.47MB]
- 公馆青少年《我其实一点都不酷》[320K/MP3][78.78MB]
- 群星《情叹-发烧男声DSD》最值得珍藏的完美男声[WAV+CUE]
- 群星《国韵飘香·贵妃醉酒HQCD黑胶王》2CD[WAV]
- 卫兰《DAUGHTER》【低速原抓WAV+CUE】
- 公馆青少年《我其实一点都不酷》[FLAC/分轨][398.22MB]
- ZWEI《迟暮的花 (Explicit)》[320K/MP3][57.16MB]