zoukankan      html  css  js  c++  java
  • Python爬虫利器一之Requests库的用法

    注:Python 版本依然基于 2.7

    官方文档

    以下内容大多来自于官方文档,本文进行了一些修改和总结。要了解更多可以参考

    官方文档

    安装

    利用 pip 安装

    或者利用 easy_install

    通过以上两种方法均可以完成安装。

    引入

    首先我们引入一个小例子来感受一下

    以上代码我们请求了本站点的网址,然后打印出了返回结果的类型,状态码,编码方式,Cookies等内容。

    运行结果如下

    怎样,是不是很方便。别急,更方便的在后面呢。

    基本请求

    requests库提供了http所有的基本请求方式。例如

    嗯,一句话搞定。

    基本GET请求

    最基本的GET请求可以直接用get方法

    如果想要加参数,可以利用 params 参数

    运行结果

    如果想请求JSON文件,可以利用 json() 方法解析

    例如自己写一个JSON文件命名为a.json,内容如下

    利用如下程序请求并解析

    运行结果如下,其中一个是直接输出内容,另外一个方法是利用 json() 方法解析,感受下它们的不同

    如果想获取来自服务器的原始套接字响应,可以取得 r.raw 。 不过需要在初始请求中设置 stream=True 。

    这样就获取了网页原始套接字内容。

    如果想添加 headers,可以传 headers 参数

    通过headers参数可以增加请求头中的headers信息

    基本POST请求

    对于 POST 请求来说,我们一般需要为它增加一些参数。那么最基本的传参方法可以利用 data 这个参数。

    运行结果

    可以看到参数传成功了,然后服务器返回了我们传的数据。

    有时候我们需要传送的信息不是表单形式的,需要我们传JSON格式的数据过去,所以我们可以用 json.dumps() 方法把表单数据序列化。

    运行结果

    通过上述方法,我们可以POST JSON格式的数据

    post请求提交json格式数据时(请求头为:{“Content-Type”: “application/json”}),一般先要把python对象转换成json对象。可能很多时候是这样写:

    requests.post(url, data=json.dumps(data))。

    其实post有一个默认参数json,可以直接简写成:

     self.session.post(url, json=data)

    如果想要上传文件,那么直接用 file 参数即可

    新建一个 a.txt 的文件,内容写上 Hello World!

    可以看到运行结果如下

    这样我们便成功完成了一个文件的上传。

    requests 是支持流式上传的,这允许你发送大的数据流或文件而无需先把它们读入内存。要使用流式上传,仅需为你的请求体提供一个类文件对象即可

    这是一个非常实用方便的功能。

    针对返回的json类型的response处理

    res = json.loads(r)["data"]
    print res
    i_list = []
    for i in xrange(len(res)):
    ele_id = res[i]["_id"]

    Cookies

    如果一个响应中包含了cookie,那么我们可以利用 cookies 变量来拿到

    以上程序仅是样例,可以用 cookies 变量来得到站点的 cookies

    另外可以利用 cookies 变量来向服务器发送 cookies 信息

    运行结果

    可以已经成功向服务器发送了 cookies

    超时配置

    可以利用 timeout 变量来配置最大请求时间

    注:timeout 仅对连接过程有效,与响应体的下载无关。

    也就是说,这个时间只限制请求的时间。即使返回的 response 包含很大内容,下载需要一定时间,然而这并没有什么卵用。

    重定向 
    网络请求中可能会遇到重定向,我们需要一次处理一个请求,可以把重定向禁止。


    requests.post(url,data,allow_redirects=False)

    默认requests请求失败后不会重试,但是我们跑case时难免遇到一些网络或外部原因导致case失败,我们可以在Session实例上附加HTTPAdapaters 参数,增加失败重试次数。

    request_retry = requests.adapatrs.HTTPAdapaters(max_retries=3)
    requests.mount('https://',request_retry) 
    requests.mount('http://',request_retry)

    会话对象

    在以上的请求中,每次请求其实都相当于发起了一个新的请求。也就是相当于我们每个请求都用了不同的浏览器单独打开的效果。也就是它并不是指的一个会话,即使请求的是同一个网址。比如

    结果是

    很明显,这不在一个会话中,无法获取 cookies,那么在一些站点中,我们需要保持一个持久的会话怎么办呢?就像用一个浏览器逛淘宝一样,在不同的选项卡之间跳转,这样其实就是建立了一个长久会话。

    解决方案如下

    在这里我们请求了两次,一次是设置 cookies,一次是获得 cookies

    运行结果

    发现可以成功获取到 cookies 了,这就是建立一个会话到作用。体会一下。

    那么既然会话是一个全局的变量,那么我们肯定可以用来全局的配置了。

    通过 s.headers.update 方法设置了 headers 的变量。然后我们又在请求中设置了一个 headers,那么会出现什么结果?

    很简单,两个变量都传送过去了。

    运行结果

    如果get方法传的headers 同样也是 x-test 呢?

    嗯,它会覆盖掉全局的配置

    那如果不想要全局配置中的一个变量了呢?很简单,设置为 None 即可

    运行结果

    嗯,以上就是 session 会话的基本用法

    SSL证书验证

    现在随处可见 https 开头的网站,Requests可以为HTTPS请求验证SSL证书,就像web浏览器一样。要想检查某个主机的SSL证书,你可以使用 verify 参数

    现在 12306 证书不是无效的嘛,来测试一下

    结果

    果真如此

    来试下 github 的

    嗯,正常请求,内容我就不输出了。

    如果我们想跳过刚才 12306 的证书验证,把 verify 设置为 False 即可

    发现就可以正常请求了。在默认情况下 verify 是 True,所以如果需要的话,需要手动设置下这个变量。

    代理

    如果需要使用代理,你可以通过为任意请求方法提供 proxies 参数来配置单个请求

    也可以通过环境变量 HTTP_PROXY 和 HTTPS_PROXY 来配置代理

    通过以上方式,可以方便地设置代理。

    grequests实现异步请求

    pip install grequests  或者 easy_install grequests

    import grequests
    
    urls = [
        'http://www.url1.com',
        'http://www.url2.com',
        'http://www.url3.com',
        'http://www.url4.com',
        'http://www.url5.com',
        'http://www.url6.com',
    ]
    
    resp = (grequests.get(u) for u in urls)
    grequests.map(resp)
    
    # [<Response [200]>, <Response [200]>, <Response [200]>, <Response [200]>, <Response [200]>, <Response [200]>]

    API

    以上讲解了 requests 中最常用的参数,如果需要用到更多,请参考官方文档 API

    API

    结语

    以上总结了一下 requests 的基本用法,如果你对爬虫有了一定的基础,那么肯定可以很快上手,在此就不多赘述了。

    练习才是王道,大家尽快投注于实践中吧。

  • 相关阅读:
    我的紫川词云
    四川省综合实力前10大学类型
    爬虫尝试
    Python安装第三方库的常见方法(补充)
    成都词云
    数据分析之扬州自5月9日起未来一周温度预测
    网络爬虫之古筝名曲爬取
    “早饭要吃好”之丰盛的扬州早茶词云展示
    河北唯一一所211大学各专业分数线数据分析
    Python爬虫爬取网页图片
  • 原文地址:https://www.cnblogs.com/lgqboke/p/7682518.html
Copyright © 2011-2022 走看看