zoukankan      html  css  js  c++  java
  • 代理池针对ip拦截破解

    代理

    • 代理概念:代理服务器。
    • 作用:接受请求==》请求转发。
    • 代理和爬虫之间的关联:
      • 可以使用请求转发的机制使得目的服务器接收到的请求对应ip的一个改变。
    • 为什么要使用代理改变请求的ip地址?
      • 爬虫程序在短时间内对指定的服务器发起了一个高频的请求,则请求对应的ip可能会被目的服务器禁止。
    • 代理的一些基础知识:
      • 代理的匿名度:
        • 透明代理:目的服务器知道你使用了代理机制并且也知道你的真实IP
        • 匿名代理:知道使用了代理机制,但是不知道你的真实ip
        • 高匿代理:不知道使用了代理,也不知道你的真实ip
      • 代理的类型:
        • http
        • https
    • 免费代理ip:
      • 快代理
      • 西祠代理
      • www.goubanjia.com
      • 代理精灵

    代理简述

    代理服务器:实现请求转发,从而可以实现更换请求的ip地址
        在requests中如何将请求的ip进行更换
    
    代理的匿名度:
        透明:服务器知道你使用了代理并且知道你的真实ip
        匿名:服务器知道你使用了代理,但是不知道你的真实ip
        高匿:服务器不知道你使用了代理,更不知道你的真实ip
    
    代理的类型:
        http:该类型的代理只可以转发http协议的请求
        https:只可以转发https协议的请求
    
    免费代理ip的网站
        快代理
        西祠代理
        goubanjia
        代理精灵(推荐):http://http.zhiliandaili.cn/
    
    在爬虫中遇到ip被禁掉如何处理?
        使用代理
        构建一个代理池
        拨号服务器
    

    简单入手

    import requests
    url = 'https://www.baidu.com/s?ie=utf-8&wd=ip'
    headers = {
        'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.142 Safari/537.36'
    }
    page_text = requests.get(url=url,headers=headers,proxies={'https':'112.195.96.115:32092'}).text
    with open('./ip.html','w',encoding='utf-8') as fp:
        fp.write(page_text)
        
    get/post方法中使用proxies请求代理的设置
    proxies={'http':'ip:port'}
    

    代理池

    • 对西祠代理发起一个高频的请求,使得本机ip被禁止,然后采用代理池解决代理的反爬
    • 代理池的构建:就是一个列表,列表中存储的是字典。每一个字典存储的键值{'http':'ip:port'}

    案例

    对西祠代理发起一个高频的请求,使得本机ip被禁止,然后采用代理池解决代理的反爬

    针对购买的代理 爬取 制作数据结构 成为代理池
    all_ips = []#代理池
    url = 'http://t.11jsq.com/index.php/api/entry?method=proxyServer.generate_api_url&packid=1&fa=0&fetch_key=&groupid=0&qty=30&time=1&pro=&city=&port=1&format=txt&ss=3&css=&dt=1&specialTxt=3&specialJson=&usertype=2'
    page_text = requests.get(url,headers=headers).text
    tree = etree.HTML(page_text)
    ip_list = tree.xpath('//body//text()')[0].split('
    ')
    for ip in ip_list:
        dic = {
            'https':ip
        }
        all_ips.append(dic)
        
    #利用上面生成的代理池 爬取其他网页
    from lxml import etree
    import random
    url = 'https://www.xicidaili.com/nn/%d'
    ips = []
    for page in range(1,3):
        new_url = format(url%page)
        page_text = requests.get(new_url,headers=headers,proxies=random.choice(all_ips)).text
        tree = etree.HTML(page_text)
        #在xpath表达式中一定不可以出现tbody标签
        tr_list = tree.xpath('//*[@id="ip_list"]//tr')[1:]
        for tr in tr_list:
            ip = tr.xpath('./td[2]/text()')[0]
            ips.append(ip)
    print(len(ips))
    
  • 相关阅读:
    ERROR: Couldn't connect to Docker daemon at http+docker://localunixsocket
    plainless script for es
    canal 代码阅读
    elasticsearch 之编译过程
    nfs 共享目录
    canal mysql slave
    yum 运行失败
    linux 几种服务类型
    2019-04-16 SpringMVC 学习笔记
    2019-04-10 集成JasperReport
  • 原文地址:https://www.cnblogs.com/saoqiang/p/12403747.html
Copyright © 2011-2022 走看看