zoukankan      html  css  js  c++  java
  • Python之Requests库的7个主要方法

    方法 说明
    requests.request() 构造一个请求,支撑一下各方法的基础方法
    requests.get() 获取HTML网页的主要方法
    requests.head() 获取网页头信息的方法
    requests.post() 向HTML网页提交POST请求的方法
    requests.put() 向HTML网页提交PUT请求的方法
    requests.patch() 向HTML网页提交局部修改请求
    requests.delete() 向HTML页面提交删除请求

    requests.request(method,url,**kwargs)--------method请求方式

    r = requests.request('GET',url,**kwargs)
    r = requests.request('HEAD',url,**kwargs)
    r = requests.request('POST‘’,url,**kwargs)
    r = requests.request('PUT',url,**kwargs)
    r = requests.request('PATCH',url,**kwargs)
    r = requests.request('DELETE',url,**kwargs)
    r = requests.request('OPTIONS',url,**keargs)

    requests.request(method,url,**kwargs)--------**kwargs访问控制参数(可选项)

    •params:字典或字节序列,作为参数增加到URL中

    1 kv = {'key1' : 'value1','key2': 'value2'}
    2 r = requests.request('GET','http://www.baidu.com',params = kv)
    3 print(r.url)
    4 #output:http://www.baidu.com?key1=value1&key2=value2

    •data:字典、字节序列或文件对象,作为request的内容,但是并不放到URL链接里,放在URL链接对应位置作为数据存储;当然也可以把一个字符串赋值给data,该字符串放在URL所对应的位置。

    1 kv = {'key1' : 'value1','key2': 'value2'}
    2 r = requests.request('POST','http://www.baidu.com',data = kv)
    3 body = '主体内容'
    4 r = requests.request('POST','http://www.baidu.com',data = body)

    •json::JSON数据,作为request的内容提交,放在服务器的json里面

    1 kv = {'key1' : 'value1','key2': 'value2'}
    2 r = requests.request('POST','http://www.baidu.com',json = kv)

    •headers:字典,HTTP定制头

    1 hd = {'user-agent':'Chrom/10'}#模拟版本10的Chrome浏览器
    2 r = requests.request('POST','http://www.baidu.com',headers = hd)

    •cookies:字典或CookieJar,request中的cookie

    •auth:元组,支持HTTP认证功能

    •files:字典类型,向某个链接提交传输文件

    1 fs = {'file': open('data.xls','rb')}
    2 f = requests.request('POST','http://www.baidu.com',files = fs)

    •timeout:设定超时时间,单位为s.如果规定时间内服务器不能返回就会产生一个timeout异常

     1 r = requests.request('GET','http://wwww.baidu.com',timeout = 10) 

    •proxis:字典类型,设定访问代理服务器,可以增加登录认证,如增加登录用户名和密码。主要用于隐藏爬取网页的源网站,防止爬虫的逆追踪。

    1 pxs = {'htttp':'http://user:pass@10.10.10.1:1234'
    2            'https':'https:10.10.10.1:4321'}
    3 r = requests.request('GET','http://www.baidu.com',proxies = pxs)    

    •allow_redirects:True/False,默认为True,重定向开关

    •steam:True/False,默认为True,获取内容后立即下载

    •verify:True/False,默认为True,认账SSL证书开关

    •cert:本地SSL证书路径

    HTTP的方法:

    方法 说明
    GET 请求获取URL位置的资源
    HEAD 请求获取URL位置资源的响应消息报告,即获得该资源的头部信息
    POST 请求向URL位置的资源后附加新的数据
    PUT 请求向URL位置存储一个资源,覆盖原URL位置的资源
    PATCH 请求局部更新URL位置的资源,即改变该处资源的部分内容
    DELETE 请求删除URL位置存储的资源
  • 相关阅读:
    攻击
    url特殊字符转义及解决方法
    为解决Samba windows 无法访问 尝试过的方法
    两种JavaScript的AES加密方式(可与Java相互加解密)
    css 实现关闭按钮 X
    webpack 安装
    webpack 踩的坑
    npm start时报错 npm ERR!Windows_NT 6.1.7601
    点击文字,把input type="radio"也选中
    linux-正则表达式
  • 原文地址:https://www.cnblogs.com/BASE64/p/10285506.html
Copyright © 2011-2022 走看看