zoukankan      html  css  js  c++  java
  • python

    requests模块

    # requests 学习
    
    # 安装
    # pip install requests
    
    # 导入模块
    import requests
    
    # 访问网页
    # res = request.get('URL')
    # res = requests.get('http://127.0.0.1:8000/index')
    
    #
    # 基本应用
    # print(res.text)
    # print(res.content)
    # res.encoding
    # res.apparent_encoding
    # res.status_code
    
    # 参数详解
    # requests.request()
    #     - method 参数: 提交方式
    #             GET,POST,PUT,DEL
    #     - url    参数: 提交地址
    #     - params 参数: 在URL中传递的参数,get
    
    #     - data   参数:在请求体中传递数据(请求头中参数 content-type:application/url-from-...)
    #                       请求体中数据: {'a':1,'b':2}字典形式 或者 'a=1&b=2'
    #     -  json  参数:在请求体中传递数据(请求头中参数 content-type:application/json)
    #                       请求体中数据:{'a':123}字典方式,支持嵌套
    #               PS: data方式与 json方式区别在于 字典数据是或否可以支持嵌套
    
    #     - headers 参数:
    #             headers={ 参数
    #               比较重要的参数 1.浏览器类型 2.使用设备类型,都是在headers中添加的.
    #               }
    
    #    -  cookies 参数:
    #                 cookies={'cookies':cooikse}
    
    #   -   files 参数
    #                 上传文件
    
    #   - auth  参数
    #               在headers中加入加密的用户名 和密码
    
    #   - timeout 参数
    #               请求和响应的超时时间
    
    #   - allow_redirects 参数
    #               是否允许中定向(跳转)
    
    #   - proxies 参数
    #               代理
    
    #   - verify 参数
    #               是否忽略证书
    
    #   - cert 参数
    #               证书,添加证书文件
    
    #   - stream 参数
    #               边下边存属性
    
    #   -  session参数:
                    # 用于保存客户端的历史访问信息
    
    # 示例:
    #     requests.request(
    #         method = 'GET',
    #         url='http://127.0.0.1:8000/index',
    #         params = {'k1':'v1'},
    #         data = {'a':1123},
    #         json = {'b',123123},
    #         headers={......},
    #         cookies={'cookies':'values'},
    #     )
    
    # 爬虫实例:
    #     import  requests
    #     from bs4 import BeautifulSoup
    #
    #     res = requests.get(url="http://www.autohome.com.cn/news/")
    #     res.encoding = res.apparent_encoding
    #     print(res.text)
    #
    #     soup = BeautifulSoup(res.text,features='html.parser')
    #     target = soup.find(id="auto-channel-lazyload-article")
    #     li_list = target.find_all('li')
    #
    #     for i in li_list:
    #         a = i.find('a')
    #         if a:
    #             print(a.attrs.get('href'))
    #             print(type(a))
  • 相关阅读:
    Struts2 参数传递总结
    简单的 MySQL 用户管理
    一道好题
    javascript 常用代码大全(2) 简单飞扬
    读取word和pdf文件的几种方法 简单飞扬
    模拟身份证号码JS源代码 简单飞扬
    兵法感悟 简单飞扬
    跨应用Session共享 简单飞扬
    放假前必须做的事情 简单飞扬
    javascript 常用代码大全(4) 简单飞扬
  • 原文地址:https://www.cnblogs.com/Anec/p/9719436.html
Copyright © 2011-2022 走看看