zoukankan      html  css  js  c++  java
  • scrapy基础知识之将item 通过pipeline保存数据到mysql mongoDB:

    pipelines.py

    class xxPipeline(object):

          def process_item(self, item, spider):

                con=pymysql.connect(host='localhost,user='',passwd='',db='',charset='utf8')

                cur=con.cursor()

                sql=("insert into 表名(字段)”"values(%s)")

                lis=(item['字段'])

                cur.execute(sql,lis)

                con.commit()

                cur.close()

                con.close()

                return item

    在settings.py中配置

    ITEM_PIPELINES = {

              ’MySpider.pipelines.xxPipeline': 300,

    }

    需要在mysql中创建数据库以及数据表字段    

    pipelines.py

    import pymongo

    class MyspiderPipeline(object):
        def __init__(self):
           
    
            # pymongo.MongoClient(host, port) 创建MongoDB链接
            client = pymongo.MongoClient(host="localhost",port=27017)
    
            # 指向指定的数据库
            db_name = client["dbname"]
    table_name=db_name["tablename"] # 获取数据库里存放数据的表名 self.post = table_name def process_item(self, item, spider): data = dict(item) # 向指定的表里添加数据 self.post.insert(data) return item

    settings.py配置

    DEFAULT_REQUEST_HEADERS = {
    'User-Agent':'Mozilla/5.0 (Windows NT 6.1; Win64; x64; rv:53.0) Gecko/20100101 Firefox/53.0'}     

               

               

               

  • 相关阅读:
    剑指offer---链表中倒数第k个结点
    剑指offer---反转链表
    剑指offer---从尾到头打印链表
    数据结构---链表ADT C++实现
    ubuntu解压zip文件出现乱码情况解决方法
    Ubuntu终端常用的快捷键(转载)
    requsets模块的学习
    爬虫的基本知识
    谈谈我们对userAgent的看法,为什么爬虫中需要userAgent?
    git的基本使用
  • 原文地址:https://www.cnblogs.com/huwei934/p/6971094.html
Copyright © 2011-2022 走看看