zoukankan      html  css  js  c++  java
  • urllib和urllib2的区别及用

    首先来看一下他们的区别

    urllib和urllib2

    • urllib2可以接受一个Request类的实例来设置URL请求的headers,urllib仅可以接受URL。这意味着,你不可以通过urllib模块伪装你的User Agent字符串等(伪装浏览器)。
    • urllib提供urlencode方法用来GET查询字符串的产生,而urllib2没有。这是为何urllib常和urllib2一起使用的原因。
    • urllib2模块比较优势的地方是urllib2.urlopen可以接受Request对象作为参数,从而可以控制HTTP Request的header部。
    • 但是urllib.urlretrieve函数以及urllib.quote等一系列quote和unquote功能没有被加入urllib2中,因此有时也需要urllib的辅助。

    httplib

    httplib实现了HTTP和HTTPS的客户端协议,一般不直接使用,在python更高层的封装模块中(urllib,urllib2)使用了它的http实现。

     

    urllib简单用法

    urllib.urlopen(url[, data[, proxies]]) :   请求数据

        创建一个表示远程url的类文件对象,然后像本地文件一样操作这个类文件对象来获取远程数据。参数url表示远程数据的路径,一般是网址;参数data表示以post方式提交到url的数据(玩过web的人应该知道提交数据的两种方式:post与get。如果你不清楚,也不必太在意,一般情况下很少用到这个参数);参数proxies用于设置代理。urlopen返回一个类文件对象,他提供了如下方法:

    •     read(),readline(),readlines(), fileno(), close():这些方法的使用方式与文件对象完全一样;
    •     info():返回一个httplib.HTTPMessage对象,表示远程服务器返回的头信息;
    •     getcode():返回Http状态码。如果是http请求,200表示请求成功完成;404表示网址未找到;
    •     geturl():返回请求的url;
    import urllib  
    google = urllib.urlopen('http://www.google.com')    
    print 'http header:/n', google.info() #获取服务器返回的头信息   
    print 'http status:', google.getcode() # 获取返回的状态码   
    print 'url:', google.geturl()    # 获取请求的url
    for line in google: # 就像在操作本地文件 print line, google.close()
    >>> import urllib.request
    >>> res = urllib.request.urlopen('http://localhost/')
    >>> res.getheaders()
    [('Date', 'Wed, 20 Jan 2016 14:27:42 GMT'), ('Server', 'Apache/2.4.16 (Win32) OpenSSL/1.0.1p PHP/5.6.12'), ('Content-Length', '5849'), 
    ('Connection', 'close'), ('Content-Type', 'text/html;charset=UTF-8')]

    urllib.urlretrieve(url[, filename[, reporthook[, data]]]):  下载文件

        urlretrieve方法直接将远程数据下载到本地。参数filename指定了保存到本地的路径(如果未指定该参数,urllib会生成一个临时文件来保存数据);参数reporthook是一个回调函数,当连接上服务器、以及相应的数据块传输完毕的时候会触发该回调。我们可以利用这个回调函数来显示当前的下载进度,下面的例子会展示。参数data指post到服务器的数据。该方法返回一个包含两个元素的元组(filename, headers),filename表示保存到本地的路径,header表示服务器的响应头。下面通过例子来演示一下这个方法的使用,这个例子将新浪首页的html抓取到本地,保存在D:/sina.html文件中,同时显示下载的进度。  

    def cbk(a, b, c):    
        '''''''回调函数  
        @a: 已经下载的数据块  
        @b: 数据块的大小  
        @c: 远程文件的大小  
        '''    
        per = 100.0 * a * b / c    
        if per > 100:    
            per = 100    
        print '%.2f%%' % per    
        
    url = 'http://www.sina.com.cn'    
    local = 'd://sina.html' #本地存放的地址   
    urllib.urlretrieve(url, local, cbk)    

          上面介绍的两个方法是urllib中最常用的方法,这些方法在获取远程数据的时候,内部会使用URLopener或者 FancyURLOpener类。作为urllib的使用者,我们很少会用到这两个类,这里我不想多讲。如果对urllib的实现感兴趣, 或者希望urllib支持更多的协议,可以研究这两个类。在Python手册中,urllib的作者还列出了这个模块的缺陷和不足,感兴趣的同学可以打开 Python手册了解一下。

           urllib中还提供了一些辅助方法,用于对url进行编码、解码。url中是不能出现一些特殊的符号的,有些符号有特殊的用途。我们知道以get方式提交数据的时候,会在url中添加key=value这样的字符串,所以在value中是不允许有'=',因此要对其进行编码;与此同时服务器接收到这些参数的时候,要进行解码,还原成原始的数据。这个时候,这些辅助方法会很有用:

    • urllib.quote(string[, safe]):对字符串进行编码。参数safe指定了不需要编码的字符;
    • urllib.unquote(string) :对字符串进行解码;
    • urllib.quote_plus(string[,safe]) :与urllib.quote类似,但这个方法用'+'来替换' ',而quote用'%20'来代替' '
    • urllib.unquote_plus(string) :对字符串进行解码;
    • urllib.urlencode(query[, doseq]):将dict或者包含两个元素的元组列表转换成url参数。例如 字典{'name': 'dark-bull', 'age': 200}将被转换为"name=dark-bull&age=200"
    • urllib.pathname2url(path):将本地路径转换成url路径;
    • urllib.url2pathname(path):将url路径转换成本地路径; 
    1. data = 'name = ~a+3'    
    2.     
    3. data1 = urllib.quote(data)    
    4. print data1 # result: name%20%3D%20%7Ea%2B3    
    5. print urllib.unquote(data1) # result: name = ~a+3    
    6.     
    7. data2 = urllib.quote_plus(data)    
    8. print data2 # result: name+%3D+%7Ea%2B3    
    9. print urllib.unquote_plus(data2)    # result: name = ~a+3    
    10.     
    11. data3 = urllib.urlencode({ 'name''dark-bull''age'200 })    
    12. print data3 # result: age=200&name=dark-bull    
    13.     
    14. data4 = urllib.pathname2url(r'd:/a/b/c/23.php')    
    15. print data4 # result: ///D|/a/b/c/23.php    
    16. print urllib.url2pathname(data4)    # result: D:/a/b/c/23.php   

      

    urllib2简单用法

    1. #!/usr/bin/env python  
    2.     import urllib2  
    3.     req = urllib2.Request("http://www.douban.com")  
    4.     response = urllib2.urlopen(req)  
    5.     html = response.read()  
    6.     print html  

    1、urllib2.Request()的功能是构造一个请求信息,返回的req就是一个构造好的请求

    2、urllib2.urlopen()的功能是发送刚刚构造好的请求req,并返回一个文件类的对象response,包括了所有的返回信息。

    3、通过response.read()可以读取到response里面的html,通过response.info()可以读到一些额外的信息

    有时你会碰到,程序也对,但是服务器拒绝你的访问。这是为什么呢?问题出在请求中的头信息(header)。 有的服务端有洁癖,不喜欢程序来触摸它。这个时候你需要将你的程序伪装成浏览器来发出请求。请求的方式就包含在header中。
    常见的情形:

    1. import urllib  
    2. import urllib2  
    3. url = 'http://www.someserver.com/cgi-bin/register.cgi'  
    4. user_agent = 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)'# 将user_agent写入头信息  
    5. values = {'name' : 'who','password':'123456'}  
    6. headers = { 'User-Agent' : user_agent }  
    7. data = urllib.urlencode(values)  
    8. req = urllib2.Request(url, data, headers)  
    9. response = urllib2.urlopen(req)  
    10. the_page = response.read()  

    urllib2和urllib配合使用:

    GET方法

    例如百度:

    百度是通过http://www.baidu.com/s?wd=XXX 来进行查询的,这样我们需要将{‘wd’:’xxx’}这个字典进行urlencode

     

    1. import urllib   
    2. import urllib2    
    3. url = 'http://www.baidu.com/s'   
    4. values = {'wd':'D_in'}     
    5. data = urllib.urlencode(values)  
    6. print data   
    7. url2 = url+'?'+data  
    8. response = urllib2.urlopen(url2)    
    9. the_page = response.read()   
    10. print the_page  

     

    POST方法

    1. import urllib  
    2. import urllib2  
    3. url = 'http://www.someserver.com/cgi-bin/register.cgi'  
    4. user_agent = 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)' //将user_agent写入头信息  
    5. values = {'name' : 'who','password':'123456'}      //post数据  
    6. headers = { 'User-Agent' : user_agent }  
    7. data = urllib.urlencode(values)                   //对post数据进行url编码  
    8. req = urllib2.Request(url, data, headers)  
    9. response = urllib2.urlopen(req)  
    10. the_page = response.read()  

    urllib2带cookie的使用

    1. #coding:utf-8  
    2. import urllib2,urllib  
    3. import cookielib  
    4.    
    5. url = r'http://www.renren.com/ajaxLogin'  
    6.    
    7. #创建一个cj的cookie的容器  
    8. cj = cookielib.CookieJar()  
    9. opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(cj))  
    10. #将要POST出去的数据进行编码  
    11. data = urllib.urlencode({"email":email,"password":pass})  
    12. r = opener.open(url,data)  
    13. print cj  

    httplib

    httplib是一个相对底层的http请求模块,其上有专门的包装模块,如urllib内建模块,goto等第三方模块,但是封装的越高就越不灵活,比如urllib模块里请求错误时就不会返回结果页的内容,只有头信息,对于某些需要检测错误请求返回值的场景就不适用,所以就得用这个模块了。

    1、class httplib.HTTPConnection

    说明:该类用于创建一个http类型的请求链接
    原型:
    HTTPConnection(host[, port[, strict[, timeout]]])
    host: 请求的服务器host,不能带http://开头
    port: 服务器web服务端口
    strict: 是否严格检查请求的状态行,就是http1.0/1.1 协议版本的那一行,即请求的第一行,默认为False,为True时检查错误会抛异常
    timeout: 单次请求的超时时间,没有时默认使用httplib模块内的全局的超时时间

    1.     实例:    
    2.     conn1 = HTTPConnection('www.baidu.com:80')    
    3.     conn2 = HTTPconnection('www.baidu.com',80)    
    4.     conn3 = HTTPConnection('www.baidu.com',80,True,10)    
    5.     错误实例:    
    6.     conn3 = HTTPConnection('www.baidu.com:80',True,10)  

     

    返回:HTTPConnection类会实例并返回一个HTTPConnection对象

     

    2、class httplib.HTTPSConnection

    说明:该类用于创建一个https类型的请求链接
    原型:
    HTTPSConnection(host[, port[, key_file[, cert_file[, strict[, timeout]]]]])
    key_file:一个包含PEM格式的私钥文件
    cert_file:一个包含PEM格式的认证文件
    other:其它同http参数

    实例:

     

    conn3 = HTTPSConnection('accounts.google.com',443,key_file,cert_file,True,10) 

    返回:同样返回一个HTTPSConnection对象
    注意:要创建https链接,必须要保证底层的socket模块是支持ssl的编译模式,即编译时ssl选项的开关是开着的

     

     3、HTTPConnection对象request方法:

    说明:发送一个请求
    原型:
    conn.request(method, url[, body[, headers]])
    method: 请求的方式,如'GET','POST','HEAD','PUT','DELETE'等
    url: 请求的网页路径。如:'/index.html'
    body: 请求是否带数据,该参数是一个字典
    headers: 请求是否带头信息,该参数是一个字典,不过键的名字是指定的http头关键字
    实例:

     

    1. conn.request('GET''/''', {'user-agent':'test'}) 

     

    返回:无返回,其实就是相对于向服务其发送数据,但是没有最后回车


    4、HTTPConnection对象getresponse方法
      说明:获取一个http响应对象,相当于执行最后的2个回车

      原型/实例:

     

    1. res = conn.getresponse()  

    返回:HTTPResponse对象


    5、HTTPConnection对象close()方法
      说明:关闭指定的httpconnect链接

    1. conn.close() 

    6、HTTPResponse对象read方法
      说明:获得http响应的内容部分,即网页源码
      原型:
      body = res.read([amt])
      amt: 读取指定长度的字符,默认为空,即读取所有内容
      实例:

    1. body = res.read()    
    2. pbody = res.read(10) 

    返回:网页内容字符串


    7、HTTPResponse对象的其它方法或属性
      方法:
      getheaders()
        获得所有的响应头内容,是一个元组列表[(name,value),(name2,value2)]
      getheader(name[,default])
        获得指定的头内容
      fileno()
        socket的fileno

      属性:
      msg
        所有的头信息,和getheaders方法一样,只不过这个是原始未处理的字符串
      status
        当次请求的状态
      version
        当次请求的http协议版本,10是http1.0, 11是http/1.1
      reason
        当次请求的结果的表述内容,200是ok,404是Not Found

    总体实例:

    1. #!/usr/bin/env python      
    2. # -*- coding: utf-8 -*-      
    3. import httplib    
    4. import urllib    
    5.     
    6. def sendhttp():    
    7.     data = urllib.urlencode({'@number'12524'@type''issue''@action''show'})       
    8.     headers = {"Content-type""application/x-www-form-urlencoded",    
    9.                "Accept""text/plain"}    
    10.     conn = httplib.HTTPConnection('bugs.python.org')    
    11.     conn.request('POST''/', data, headers)    
    12.     httpres = conn.getresponse()    
    13.     print httpres.status    
    14.     print httpres.reason    
    15.     print httpres.read()               
    16.                   
    17. if __name__ == '__main__':      
    18.     sendhttp()   


      

     

      

     

  • 相关阅读:
    [NOI2005]维修数列
    [USACO07OPEN]吃饭Dining
    [TJOI2010]打扫房间
    [SCOI2005]最大子矩阵
    [HNOI2007]最小矩形覆盖
    [HAOI2006]受欢迎的牛
    BZOJ2087[Poi2010] Sheep
    [USACO08DEC]在农场万圣节Trick or Treat on the Farm
    [POI2013]BAJ-Bytecomputer
    HGOI20190126 模拟赛
  • 原文地址:https://www.cnblogs.com/domestique/p/7789055.html
Copyright © 2011-2022 走看看