zoukankan      html  css  js  c++  java
  • scrapy框架+selenium的使用

    scrapy框架+selenium的使用

    1 使用情景:   

      在通过scrapy框架进行某些网站数据爬取的时候,往往会碰到页面动态数据加载的情况发生,如果直接使用scrapy对其url发请求,是绝对获取不到那部分动态加载出来的数据值。但是通过观察我们会发现,通过浏览器进行url请求发送则会加载出对应的动态加载出的数据。那么如果我们想要在scrapy也获取动态加载出的数据,则必须使用selenium创建浏览器对象,然后通过该浏览器对象进行请求发送,获取动态加载的数据值

     2 使用流程

      1 重写爬虫文件的__init__()构造方法,在该方法中使用selenium实例化一个浏览器对象(因为浏览器对象只需要被实例化一次).

      2 重写爬虫文件的closed(self,spider)方法,在其内部关闭浏览器对象,该方法是在爬虫结束时被调用.

      3 重写下载中间件的process_response方法,让该方法对响应对象进行拦截,并篡改response中存储的页面数据.

      4 在settings配置文件中开启下载中间件

    3 使用案例: 爬取XXX网站新闻的部分板块内容

      爬虫文件: 

    # 注意:这里对请求进行初始化后,每一次请求都是使用selenium

    from selenium import webdriver
    from  selenium.webdriver.chrome.options import Options    # 使用无头浏览器
    import scrapy
    无头浏览器设置
    chorme_options = Options()
    chorme_options.add_argument("--headless")
    chorme_options.add_argument("--disable-gpu")
    
    
    class WangyiSpider(scrapy.Spider):
        name = 'wangyi'
        # allowed_domains = ['wangyi.com']   # 允许爬取的域名
        start_urls = ['https://news.163.com/']
    
        # 实例化一个浏览器对象
        def __init__(self):
            self.browser = webdriver.Chrome(chrome_options=chorme_options)
            super().__init__()
    
        def start_requests(self):
            url = "https://news.163.com/"
            response = scrapy.Request(url,callback=self.parse_index)
            yield response
    
        # 整个爬虫结束后关闭浏览器
        def close(self,spider):
            self.browser.quit()
    
        # 访问主页的url, 拿到对应板块的response
        def parse_index(self, response):
            div_list = response.xpath("//div[@class='ns_area list']/ul/li/a/@href").extract()
            index_list = [3,4,6,7]
            for index in index_list:
                response = scrapy.Request(div_list[index],callback=self.parse_detail)
                yield response
    
        # 对每一个板块进行详细访问并解析, 获取板块内的每条新闻的url
        def parse_detail(self,response):
            div_res = response.xpath("//div[@class='data_row news_article clearfix ']")
            # print(len(div_res))
            title = div_res.xpath(".//div[@class='news_title']/h3/a/text()").extract_first()
            pic_url = div_res.xpath("./a/img/@src").extract_first()
            detail_url = div_res.xpath("//div[@class='news_title']/h3/a/@href").extract_first()
            infos = div_res.xpath(".//div[@class='news_tag//text()']").extract()
            info_list = []
            for info in infos:
                info = info.strip()
                info_list.append(info)
            info_str = "".join(info_list)
            item = WangyiproItem()
    
            item["title"] = title
            item["detail_url"] = detail_url
            item["pic_url"] = pic_url
            item["info_str"] = info_str
    
            yield scrapy.Request(url=detail_url,callback=self.parse_content,meta={"item":item})    # 通过 参数meta 可以将item参数传递进 callback回调函数,再由 response.meta[...]取出来
    
        # 对每条新闻的url进行访问, 并解析
        def parse_content(self,response):
            item = response.meta["item"]    # 获取从response回调函数由meta传过来的 item 值
            content_list = response.xpath("//div[@class='post_text']/p/text()").extract()
            content = "".join(content_list)
            item["content"] = content
            yield item
  • 相关阅读:
    JSP 页面中插入图片
    半角空格 全角空格 不间断空格 通过过滤器解决
    Eclispe 错误:找不到或无法加载加载主类
    Eclipse 新建 Maven web 项目
    Eclipse 中 Maven 项目默认JDK版本为1.5 的解决方法
    Eclipse Maven: Cannot change version of project facet Dynamic web to 3.0 的解决方法
    JSP 页面跳转中的参数传递
    Maven 基本用法
    JSP 页面跳转的实现方法
    Android开发入门(2)Java 基础
  • 原文地址:https://www.cnblogs.com/wukai66/p/13288211.html
Copyright © 2011-2022 走看看