zoukankan      html  css  js  c++  java
  • 2-Requests库的使用

    【Python3网络爬虫】2-Requests库的使用

    介绍

    对了解爬虫的一些基本理念,掌握爬虫爬取的流程后,我们需要学习一些更加高级的工具和内容来方便我们的爬取,本节主要介绍requests库的基本用法

    安装

    pip insatll requests
    

    基本请求

    import requests
    # requests.api
    url = "http://www.baidu.com"
    requests.get(url)
    requests.options(url)
    requests.head(url)
    requests.post(url)
    requests.put(url)
    requests.patch(url)
    requests.delete(url)
    

    自定义请求头,超时,代理

    import requests
    from fake_useragent import UserAgent
    
    url = "http://www.baidu.com"
    headers = {
        'User-Agent': UserAgent().chrome
    }
    proxies = {
        "http": '218.75.158.153:3128'
    }
    
    session = requests.Session()
    # 禁用安全请求警告
    requests.packages.urllib3.disable_warnings()
    """
        @:param headers
            请求头设置
        @:param timeout
            超时设置,单位S
        @:param proxies
            代理设置
    """
    resp = session.get(url=url, verify=False, headers=headers, timeout=10, proxies=proxies)
    print(resp)
    
    
  • 相关阅读:
    1.vue-1
    7.Docker -- 虚拟服务器
    11.Django -- 中间件
    10.Django -- csrf -- 文件上传
    9.djang -- cookie和session
    8.Django --Ajax
    YOLO v1原理详解
    带你一文读懂Faster RCNN论文
    Week13
    Week12
  • 原文地址:https://www.cnblogs.com/missj/p/12814772.html
Copyright © 2011-2022 走看看