zoukankan      html  css  js  c++  java
  • 13 UA池和代理池

    一. 下载中间件

      框架图

    下载中间件(Downloader Middlewares) 位于scrapy引擎和下载器之间的一层组件。

    - 作用:

    (1)引擎将请求传递给下载器过程中, 下载中间件可以对请求进行一系列处理。比如设置请求的 User-Agent,设置代理等

    (2)在下载器完成将Response传递给引擎中,下载中间件可以对响应进行一系列处理。比如进行gzip解压等。

    我们主要使用下载中间件处理请求,一般会对请求设置随机的User-Agent ,设置随机的代理。目的在于防止爬取网站的反爬虫策略。

    二.UA池:User-Agent池

    - 作用:尽可能多的将scrapy工程中的请求伪装成不同类型的浏览器身份。

    - 操作流程:

        1.在下载中间件中拦截请求

        2.将拦截到的请求的请求头信息中的UA进行篡改伪装

        3.在配置文件中开启下载中间件

    代码展示:

     1 #导包
     2 from scrapy.contrib.downloadermiddleware.useragent import UserAgentMiddleware
     3 import random
     4 #UA池代码的编写(单独给UA池封装一个下载中间件的一个类)
     5 class RandomUserAgent(UserAgentMiddleware):
     6 
     7     def process_request(self, request, spider):
     8         #从列表中随机抽选出一个ua值
     9         ua = random.choice(user_agent_list)
    10         #ua值进行当前拦截到请求的ua的写入操作
    11         request.headers.setdefault('User-Agent',ua)
    12 
    13 
    14 user_agent_list = [
    15         "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.1 "
    16         "(KHTML, like Gecko) Chrome/22.0.1207.1 Safari/537.1",
    17         "Mozilla/5.0 (X11; CrOS i686 2268.111.0) AppleWebKit/536.11 "
    18         "(KHTML, like Gecko) Chrome/20.0.1132.57 Safari/536.11",
    19         "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/536.6 "
    20         "(KHTML, like Gecko) Chrome/20.0.1092.0 Safari/536.6",
    21         "Mozilla/5.0 (Windows NT 6.2) AppleWebKit/536.6 "
    22         "(KHTML, like Gecko) Chrome/20.0.1090.0 Safari/536.6",
    23         "Mozilla/5.0 (Windows NT 6.2; WOW64) AppleWebKit/537.1 "
    24         "(KHTML, like Gecko) Chrome/19.77.34.5 Safari/537.1",
    25         "Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/536.5 "
    26         "(KHTML, like Gecko) Chrome/19.0.1084.9 Safari/536.5",
    27         "Mozilla/5.0 (Windows NT 6.0) AppleWebKit/536.5 "
    28         "(KHTML, like Gecko) Chrome/19.0.1084.36 Safari/536.5",
    29         "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/536.3 "
    30         "(KHTML, like Gecko) Chrome/19.0.1063.0 Safari/536.3",
    31         "Mozilla/5.0 (Windows NT 5.1) AppleWebKit/536.3 "
    32         "(KHTML, like Gecko) Chrome/19.0.1063.0 Safari/536.3",
    33         "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_8_0) AppleWebKit/536.3 "
    34         "(KHTML, like Gecko) Chrome/19.0.1063.0 Safari/536.3",
    35         "Mozilla/5.0 (Windows NT 6.2) AppleWebKit/536.3 "
    36         "(KHTML, like Gecko) Chrome/19.0.1062.0 Safari/536.3",
    37         "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/536.3 "
    38         "(KHTML, like Gecko) Chrome/19.0.1062.0 Safari/536.3",
    39         "Mozilla/5.0 (Windows NT 6.2) AppleWebKit/536.3 "
    40         "(KHTML, like Gecko) Chrome/19.0.1061.1 Safari/536.3",
    41         "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/536.3 "
    42         "(KHTML, like Gecko) Chrome/19.0.1061.1 Safari/536.3",
    43         "Mozilla/5.0 (Windows NT 6.1) AppleWebKit/536.3 "
    44         "(KHTML, like Gecko) Chrome/19.0.1061.1 Safari/536.3",
    45         "Mozilla/5.0 (Windows NT 6.2) AppleWebKit/536.3 "
    46         "(KHTML, like Gecko) Chrome/19.0.1061.0 Safari/536.3",
    47         "Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/535.24 "
    48         "(KHTML, like Gecko) Chrome/19.0.1055.1 Safari/535.24",
    49         "Mozilla/5.0 (Windows NT 6.2; WOW64) AppleWebKit/535.24 "
    50         "(KHTML, like Gecko) Chrome/19.0.1055.1 Safari/535.24"
    51 ]

    三.代理池

    - 作用:尽可能多的将scrapy工程中的请求的IP设置成不同的。

    - 操作流程:

        1.在下载中间件中拦截请求

        2.将拦截到的请求的IP修改成某一代理IP

        3.在配置文件中开启下载中间件

    代码展示:

     1 #批量对拦截到的请求进行ip更换
     2 #单独封装下载中间件类
     3 class Proxy(object):
     4     def process_request(self, request, spider):
     5         #对拦截到请求的url进行判断(协议头到底是http还是https)
     6         #request.url返回值:http://www.xxx.com
     7         h = request.url.split(':')[0]  #请求的协议头
     8         if h == 'https':
     9             ip = random.choice(PROXY_https)
    10             request.meta['proxy'] = 'https://'+ip
    11         else:
    12             ip = random.choice(PROXY_http)
    13             request.meta['proxy'] = 'http://' + ip
    14 
    15 #可被选用的代理IP
    16 PROXY_http = [
    17     '153.180.102.104:80',
    18     '195.208.131.189:56055',
    19 ]
    20 PROXY_https = [
    21     '120.83.49.90:9000',
    22     '95.189.112.214:35508',
    23 ]
  • 相关阅读:
    H3C IS-IS基础配置
    H3C OSPF实验大集合(IPv4)
    H3C OSPF实验大集合(IPv6)
    H3C RIP实验大集合
    H3C IPv4和IPv6负载均衡
    H3C IPv4与ipv6静态路由
    H3C 配置dns及arp
    H3C 配置DHCP服务器
    H3C 多生成树MSTP
    H3C 配置ftp服务器
  • 原文地址:https://www.cnblogs.com/a2534786642/p/10998547.html
Copyright © 2011-2022 走看看