zoukankan      html  css  js  c++  java
  • eclipse创建scrapy项目

    1. 
    您必须创建一个新的Scrapy项目。 进入您打算存储代码的目录中(比如否F:/demo),运行下列命令: 

    scrapy startproject tutorial 
    2.在eclipse中创建一个python项目 ,在F:/demo目录下 把刚创建的项目 tutorial 和scrapy.cfg配置文件拷入 eclipse下的python项目中 

    3.在python项目下tutorial/spiders下创建一个py文件(例如:myblog.py) 
    代码: 

    # -*- coding: utf-8 -*- 
    import scrapy                  
    from tutorial.items import IteyeItem     #导入item    
    from scrapy.selector import HtmlXPathSelector 
                    
    class MyblogSpider(scrapy.Spider):                              
        name = "myblog"            
        allowed_domains = ["886.iteye.com"]   #服务器       post              
        start_urls = (             
            'http://886.iteye.com/', 
            'http://st4024589553.iteye.com/'                         
        )                          
                                   
        def parse(self, response): 
            lis = response.xpath("//div[@class='blog_main']/div[1]/h3") #增加xpath 
            item = IteyeItem()                                                                                                                  
            for li in lis:   
               
                title= li.xpath('a/text()').extract()[0] 
                print li.xpath('a/text()').extract()[0] 
                item['title']=title 
                item['link']=li.xpath('a/@href').extract() 
                yield item 
    4.在tutorial下创建 cmdline.py 文件 
    代码: 
    # coding=utf-8 
    ''' 
    Created on 2017年2月5日 

    @author: chenkai 
    '''  
    import scrapy.cmdline  
      
    ''' 
    cmdline.py用于启动scrapy项目,其中argv第三个参数为启动爬虫的名字。如下图 
    ''' 
    if __name__ == '__main__':  
        scrapy.cmdline.execute(argv=['scrapy','crawl','myblog'])  #myblog myblog.py中name 


    5.         
    代码编辑好后,右键cmdline.py -->Debug As -->Run config....  -->右键Python Run-->new 
    -->project 选择你创建的python项目 --》Main Module 选择项目下的cmdline.py文件即可 
    apply一下 

    6.编辑tutorial/items.py  文件 
    代码: 
    # -*- coding: utf-8 -*- 

    import scrapy 

    class IteyeItem(scrapy.Item):  
        title = scrapy.Field() 
        link = scrapy.Field()  
                

    7. 
    (1)现在可以直接运行cmdline.py文件  run  输出信息 
    (2)也可以在提示符窗口里运行,cmd -->scrapy crawl myblog 同样可以启动 

    来自:http://st4024589553.iteye.com/blog/2374115

  • 相关阅读:
    sql server数据库备份与复制(1):通过复制.mdf和.ldf文件实现数据转移
    SQL SERVER数据库备份与复制(4):让SQL SERVER自动备份方法一
    js 日历控件
    SQL SERVERa数据备份与复制(2):直接复制MDF文件和使用SQL的备份之间的区别
    mysql 插入中文乱码解决方案
    sql server数据库注意点
    SQL SERVERR数据库备份与复制(5):自动备份的SP
    mysql数据备份或转移(1)——通过数据复制实现转移
    SQL Server数据库备份与复制(3):从备份到转移的几种方法方法
    SQLSERVER数据存储内幕
  • 原文地址:https://www.cnblogs.com/scl1314/p/7941097.html
Copyright © 2011-2022 走看看