zoukankan      html  css  js  c++  java
  • Scrapy爬虫实例教程(二)---数据存入MySQL

    书接上回 实例教程(一)

    本文将详细描述使用scrapy爬去左岸读书所有文章并存入本地MySql数据库中,文中所有操作都是建立在scrapy已经配置完毕,并且系统中已经安装了Mysql数据库(有权限操作数据库)。

    为了避免读者混淆,这里也使用tutorial作为scrapy project名称(工程的名字可以有读者自己定制)。

    1. 建立tutorial工程

    1 scrapy startproject tutorial

    上述命令运行完毕后会得到tutorial(或者自定义名称)的目录,使用tree命令可以查看tutorial的目录结构,如下图所示

    2. 解析左岸文章结构

        左岸读书为读者提供了一些优美文章,喜欢的读者可以自行订阅(在这里提博主打广告啦[不用谢^_^])

      站中所有文章都以列表的形式列出,每篇文章链接都给出了文章摘要和相应的信息(如作者,发布时间,分类信息,阅读量等信息)在列表底端给出了下一个列表的链接,具体如下图所示

        

        点击相应的文章题目可以链接到具体的文章内容页面,读者可以自己实验试下,这里不再赘述。

    3. 建立mysql数据库

        建立mysql数据库 crawed

        

    1 create database crawed;
    2 use crawed;

       在数据库中建立zreading数据表,这里我们要抓取文章标题,作者,文章发表日期,文章类别,文章标签,阅读量及文章内容,建立如下数据表

       

    1 CREATE TABLE `zreading` (
    2   `title` varchar(100) NOT NULL,
    3   `author` varchar(50) NOT NULL,
    4   `pub_date` varchar(30) DEFAULT NULL,
    5   `types` varchar(50) DEFAULT NULL,
    6   `tags` varchar(50) DEFAULT NULL,
    7   `view_counts` varchar(20) DEFAULT '0',
    8   `content` text
    9 ) ENGINE=InnoDB DEFAULT CHARSET=utf8;

    4. 在items.py中编写需要抓取的内容

        items.py是爬虫根据用户兴趣定义爬去内容的文件,用户可以根据自己的需求,定义相应的class,爬虫在解析网页时根据解析规则生成item类对象

        这里根据我们步骤3中的数据类别建立如下类:

        

     1 class TutorialItem(scrapy.Item):
     2     # define the fields for your item here like:
     3     # name = scrapy.Field()
     4     title = scrapy.Field()
     5     author = scrapy.Field()
     6     pub_date = scrapy.Field()
     7     types = scrapy.Field()
     8     tags = scrapy.Field()
     9     view_count = scrapy.Field()
    10     content = scrapy.Field()

    5. 编辑pipelines.py文件

       pipelines.py是设置抓取内容存储方式的文件,例如可以存储到mysql或是json文件中,读者可以根据自己实际需求选择相应的方式,本例中选择存储到mysql中。

       

     1 from twisted.enterprise import adbapi
     2 import MySQLdb
     3 import MySQLdb.cursors
     4 from scrapy.crawler import Settings as settings
     5 class TutorialPipeline(object):
     6 
     7     def __init__(self):
     8 
     9         dbargs = dict(
    10             host = 'your host' ,
    11             db = 'crawed',
    12             user = 'user_name', #replace with you user name
    13             passwd = 'user_password', # replace with you password
    14             charset = 'utf8',
    15             cursorclass = MySQLdb.cursors.DictCursor,
    16             use_unicode = True,
    17             )    
    18         self.dbpool = adbapi.ConnectionPool('MySQLdb',**dbargs)
    19 
    20 
    21     '''
    22     The default pipeline invoke function
    23     '''
    24         def process_item(self, item,spider):
    25             res = self.dbpool.runInteraction(self.insert_into_table,item)
    26                 return item
    27 
    28         def insert_into_table(self,conn,item):
    29                 conn.execute('insert into zreading(title,author,pub_date,types,tags,view_counts,content) values(%s,%s,%s,%s,%s,%s,%s)', (item['title'],item['author'],item['pub_date'],item['types'],item['tags'],item['view_count'],item['content']))

    6. 在settings.py中设置pipeline

        当使用pipeline保存抓取内容时,需要设置相应的pipeline类,以便让系统知道根据什么方式进行存储,在settings.py中加入一下代码

       

    1 ITEM_PIPELINES = {
    2     'tutorial.pipelines.TutorialPipeline': 300,
    3 }

    7. 解析网页,抓取需要内容

         经过以上6步,所有的配置的工作已经结束,接下来,我们的重点就是如何从网页中解析出我们所需要的内容,在解析过程中需要借助一些开发插件,比如firefox的firebug,chrome的开发者工具,本例中使用chrome的开发工具。

         在这一步我们需要编写网页解析的具体逻辑-如何处理网页,得到我们所需的内容。在spiders目录下,新建zreading.py文件,然后定义zreadingCrawl爬虫(继承scrapy的BaseSpider即可)

         

    1 class zreadingCrawl(BaseSpider):
    2     name = "zreading" # the name of spider
    3     allowed_domain = ['zreading.cn'] # allowed domain for spiders
    4     start_urls = [
    5     'http://www.zreading.cn'  #the start url / the entrance of spider
    6     ]  

        具体的解析过程如下:

        a. 首先解析左岸的文章列表,使用chrome的开发者工具,在文章标题处右击,点击检查,然后复制为xpath路径。在解析网页是就可以根据这个路径定位到你所需的内容,这里我们只是想获得文章的连接,所有我们只需要提取文章题目链接的

            href属性值即可,在文章目录页中,有两种我们需要的链接,一种是文章内容的链接,另一种则是文章列表的下一页,对于文章内容链接我们可以直接请求响应的URL,然后解析内容即可;而对于目录链接则可以从头解析(也即请求目录页然后进一步解析)。

            由上述可知,这是一个不断循环的过程,直至没有下一页为止。

        b. 在解析的过程中,对于每次的解析内容,都需要进行处理,如在提取标题时,得到的内容前后包括很多空格,而且为了避免在数据库出现乱码,所有数据都编码成utf8。这里我们需要编写

        c. 具体代码如下(在zreadingCrawl中添加如下函数):

           

     1 def parse(self,response):
     2 
     3         if response.url.endswith('html'):    
     4 
     5             item = self.parsePaperContent(response)
     6 
     7         else:
     8             # get all the page links in list Page
     9             sel = Selector(response)            
    10             links = sel.xpath('//*[@id="content"]/article/header/h2/a/@href').extract()
    11             for link in links:
    12                 yield Request(link,callback=self.parse)
    13 
    14             # get the next page to visitr
    15             next_pages = sel.xpath('//*[@id="content"]/div/a[@class="next"]/@href').extract()
    16             if len(next_pages) != 0:
    17                 yield Request(next_pages[0],callback=self.parse)
    18             # record the list page
    19 
    20         yield item

      

            

     1 def parsePaperContent(self,response):
     2         print "In parsse paper content function......"
     3         # get the page number  '5412.html'
     4         #  page_id = response.url.split('/')[-1].split('.')[0] ----- OK
     5         r  =re.match(r'd+',response.url.split('/')[-1])
     6         page_id = r.group()
     7         # instantie the item
     8         zding = TutorialItem()
     9         sel = Selector(response)
    10         #add tilte
    11         title = sel.xpath("//div[@id='content']/article/header/h2/text()").extract()[0]
    12         s_title = title.encode("utf-8")
    13         zding['title'] = s_title.lstrip().rstrip()
    14 
    15         #add pub_date
    16         pub_date = sel.xpath('//*[@id="'+page_id+'"]/div[2]/span[1]/text()').extract()[0]
    17         s_pub_date = pub_date.encode("utf8")
    18         zding['pub_date'] = s_pub_date.lstrip().rstrip()
    19 
    20         #add author
    21         author = sel.xpath('//*[@id="'+page_id+'"]/div[2]/span[2]/a/text()').extract()[0]
    22         s_author = author.encode("utf8")
    23         zding['author'] = s_author.lstrip().rstrip()
    24 
    25         #add tags including type and paper tags
    26 
    27         tags = sel.xpath('//*[@id="'+page_id+'"]/div[2]/a/text()').extract()
    28         tags = [s.encode('utf8') for s in tags]
    29         zding['types'] = tags[0]
    30         zding['tags'] = "+".join(tags[1:])
    31 
    32         #add view count
    33         views = sel.xpath('//*[@id="'+page_id+'"]/div[2]/span[3]/text()').extract()[0]
    34         r = re.search(r'd+',views)
    35         view_count = int(r.group())
    36         zding['view_count'] = view_count
    37         #add content 
    38         content = sel.xpath('//*[@id="'+page_id+'"]/div[3]/p/text()').extract()
    39         zding['content'] = "
    ".join(content)
    40 
    41         #return the item 
    42         return zding

     8. 在命令行下运行

         

    1 scrapy crawl zreading

        在屏幕中会闪解析过的网页和解析得到的item,等运行完毕后查看数据库中的zreading表的内容,这里因为文章较长,不再单独贴图。

    *****声明:本帖纯粹是个人兴趣爱好,绝无其他任何恶意。本人很喜欢看左岸的文章,恰逢学习scrapy,就以此为例。在此声明,本帖只是技术解析,绝无转载。*****

       

        

  • 相关阅读:
    4 种高可用 RocketMQ 集群搭建方案!
    Spring @Autowired 注解自动注入流程是怎么样?
    AQS 自定义同步锁,挺难的!
    PyCharm爬虫实例:使用Scrapy抓取网页特定内容、数据采集与数据预处理--biaobiao88
    Ubuntu中安装Hadoop出现的问题
    Win10系统FF新推荐弹窗的卸载方法
    Sublime Text 中文乱码(解决)
    JProfiler的安装
    稀疏数组
    算法基础<一>
  • 原文地址:https://www.cnblogs.com/mchen/p/5581333.html
Copyright © 2011-2022 走看看