zoukankan      html  css  js  c++  java
  • python爬虫基础

    urllib库的基本使用

    所谓网页抓取,就是把URL地址中指定的网络资源从网络流中读取出来,保存到本地。 在Python中有很多库可以用来抓取网页,我们先学习urllib。在Python 2中,有urllib和urllib2两个库来实现请求的发送。而在Python 3中,已经不存在urllib2这个库了,统一为urllib。

    使用urllib的request模块,我们可以方便地实现请求的发送并得到响应。

    urlopen

    # urllib.py
    
    # 导入urllib 库
    import urllib.request
    
    # 向指定的url发送请求,并返回服务器响应的类文件对象
    response = urllib.request.urlopen("http://www.baidu.com")
    
    # 类文件对象支持 文件对象的操作方法,如read()方法读取文件全部内容,返回字符串
    html = response.read()
    
    # 打印字符串
    print (html)

    执行写的python代码,将打印结果。

     wljdeMacBook-Pro:~ wlj$ python3 urllib.py

    实际上,如果我们在浏览器上打开百度主页, 右键选择“查看源代码”,你会发现,跟我们刚才打印出来的是一模一样。也就是说,上面的4行代码就已经帮我们把百度的首页的全部代码爬了下来。

    一个基本的url请求对应的python代码真的非常简单。

    Request

    在我们第一个例子里,urlopen()的参数就是一个url地址;

    但是如果需要执行更复杂的操作,比如增加HTTP报头,必须创建一个 Request 实例来作为urlopen()的参数;而需要访问的url地址则作为 Request 实例的参数。

    我们编辑urllib.py

    # urllib.py
    
    import urllib.request
    
    # url 作为Request()方法的参数,构造并返回一个Request对象
    request = urllib.request.Request("http://www.baidu.com")
    
    # Request对象作为urlopen()方法的参数,发送给服务器并接收响应
    response = urllib.request.urlopen(request)
    
    html = response.read()
    
    print (html)

     运行结果是完全一样的。

    新建Request实例,除了必须要有 url 参数之外,还可以设置另外两个参数:

    1. data(默认空):是伴随 url 提交的数据(比如要post的数据),同时 HTTP 请求将从 "GET"方式 改为 "POST"方式。

    2. headers(默认空):是一个字典,包含了需要发送的HTTP报头的键值对。

    添加更多的Header信息

    # urllib.py
    
    import urllib.request
    
    url = "https://www.cnblogs.com/wanglinjie"
    
    #IE 9.0 的 User-Agent
    header = {"User-Agent" : "Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; Trident/5.0;"} 
    request = urllib.request.Request(url, headers = header)
    
    #也可以通过调用Request.add_header() 添加/修改一个特定的header
    request.add_header("Connection", "keep-alive")
    
    # 也可以通过调用Request.get_header()来查看header信息
    # request.get_header(header_name="Connection")
    
    response = urllib.request.urlopen(url)
    
    print (response.code)     #可以查看响应状态码
    html = response.read()
    
    print (html)

    urllib.urlencode()

    urllib 和 urllib2 都是接受URL请求的相关模块,但是提供了不同的功能。两个最显著的不同如下:
    • urllib 仅可以接受URL,不能创建 设置了headers 的Request 类实例;

    • 但是 urllib 提供 urlencode 方法用来GET查询字符串的产生,而 urllib2 则没有。(这是 urllib 和 urllib2 经常一起使用的主要原因)

    • 编码工作使用urllib的urlencode()函数,帮我们将key:value这样的键值对转换成"key=value"这样的字符串,解码工作可以使用urllib的unquote()函数。(注意,不是urllib2.urlencode() )

    # IPython2 中的测试结果
    In [1]: import urllib
    
    In [2]: word = {"wd" : "王琳杰博客园"}
    
    # 通过urllib.urlencode()方法,将字典键值对按URL编码转换,从而能被web服务器接受。
    In [3]: urllib.urlencode(word)  
    Out[3]: "wd=%E4%BC%A0%E6%99%BA%E6%92%AD%E5%AE%A2"
    
    # 通过urllib.unquote()方法,把 URL编码字符串,转换回原先字符串。
    In [4]: print urllib.unquote("wd=%E4%BC%A0%E6%99%BA%E6%92%AD%E5%AE%A2")
    wd=王琳杰博客园

    python3中

    # urllib.py
    from urllib import parse
    word = {"wd" : "王琳杰博客园"}
    data = parse.urlencode(word)
    print(data)
    # urllib.py
    
    import urllib.parse
    data = urllib.parse.unquote("%E7%8E%8B%E7%90%B3%E6%9D%B0%E5%8D%9A%E5%AE%A2%E5%9B%AD")
    print(data)
    from urllib.parse import urlencode
     
    params = {
        'wd': '王琳杰',
        'pn': '10'
    }
    base_url = 'http://www.baidu.com/s?'
    url = base_url + urlencode(params)
    print(url)

     这里首先声明了一个字典来将参数表示出来,然后调用urlencode()方法将其序列化为GET请求参数。

    有了序列化,必然就有反序列化。如果我们有一串GET请求参数,利用parse_qs()方法,就可以将它转回字典,示例如下:

    from urllib.parse import parse_qs
     
    query = 'wd=王琳杰&pn=10'
    print(parse_qs(query))

    运行结果如下:

    {'wd': ['王琳杰'], 'pn': ['10']}

    quote()

    该方法可以将内容转化为URL编码的格式。URL中带有中文参数时,有时可能会导致乱码的问题,此时用这个方法可以将中文字符转化为URL编码,示例如下:

    from urllib.parse import quote
     
    keyword = '壁纸'
    url = 'https://www.baidu.com/s?wd=' + quote(keyword)
    print(url)

    这里我们声明了一个中文的搜索文字,然后用quote()方法对其进行URL编码,最后得到的结果如下:

    https://www.baidu.com/s?wd=%E5%A3%81%E7%BA%B8

    unquote()

    有了quote()方法,当然还有unquote()方法,它可以进行URL解码,示例如下:

    from urllib.parse import quote
    
    keyword = '壁纸'
    url = 'https://www.baidu.com/s?wd=' + quote(keyword)
    print(url)

    应该得到URL编码后的结果

    https://www.baidu.com/s?wd=壁纸

    但是实测结果为

    https://www.baidu.com/s?wd=%E5%A3%81%E7%BA%B8

    Get方式

    GET请求一般用于我们向服务器获取数据,比如说,我们用百度搜索:https://www.baidu.com/s?wd=王琳杰博客园

    浏览器的url会跳转成如图所示:  

    https://www.baidu.com/s?wd=%E7%8E%8B%E7%90%B3%E6%9D%B0%E5%8D%9A%E5%AE%A2%E5%9B%AD

    在其中我们可以看到在请求部分里,http://www.baidu.com/s? 之后出现一个长长的字符串,其中就包含我们要查询的关键词,于是我们可以尝试用默认的Get方式来发送请求。

    python2中:

    # urllib2_get.py
    
    import urllib      #负责url编码处理
    import urllib2
    
    url = "http://www.baidu.com/s"
    word = {"wd":"王琳杰博客园"}
    word = urllib.urlencode(word) #转换成url编码格式(字符串)
    newurl = url + "?" + word    # url首个分隔符就是 ?
    
    headers={ "User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/51.0.2704.103 Safari/537.36"}
    
    request = urllib2.Request(newurl, headers=headers)
    
    response = urllib2.urlopen(request)
    
    print response.read()

    python3中:

    # urllib.py
    
    from urllib import parse
    import urllib.request
    
    url = "http://www.baidu.com/s"
    word = {"wd" : "王琳杰博客园"}
    data = parse.urlencode(word)  # 提交类型不能为str,需要为byte类型
    newurl = url + "?" + data    # url首个分隔符就是 ?
    
    headers={ "User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/51.0.2704.103 Safari/537.36"}
    request = urllib.request.Request(url, headers = headers)
    response = urllib.request.urlopen(url)
    
    print (response.code)     #可以查看响应状态码
    html = response.read()
    print (html)

    POST方式:

    上面我们说了Request请求对象的里有data参数,它就是用在POST里的,我们要传送的数据就是这个参数data,data是一个字典,里面要匹配键值对。

    有道词典翻译网站:

    输入测试数据,再通过使用Fiddler观察,其中有一条是POST请求,而向服务器发送的请求数据并不是在url里,那么我们可以试着模拟这个POST请求。

    from urllib import parse
    import urllib.request
    
    # POST请求的目标URL
    url = "http://fanyi.youdao.com/"
    
    headers={ "User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/51.0.2704.103 Safari/537.36"}
    
    formdata = {
        "type":"AUTO",
        "i":"i love python",
        "doctype":"json",
        "xmlVersion":"1.8",
        "keyfrom":"fanyi.web",
        "ue":"UTF-8",
        "action":"FY_BY_ENTER",
        "typoResult":"true"
    }
    
    data = parse.urlencode(formdata).encode('utf-8')    # 提交类型不能为str,需要为byte类型
    
    request = urllib.request.Request(url, data = data, headers = headers)
    response = urllib.request.urlopen(request)
    print (response.read())
  • 相关阅读:
    防火墙基础知识(持续补充更新)
    GNS3配置问题(持续更新)
    vc程序设计--对键盘与鼠标的响应(1)
    VC程序设计--文字输出方法与字体示例
    Excel vlookup筛选两列的重复项
    centos 软件安装包下载网站
    CentOS7 SSH免密码登录
    nmap 端口扫描工具
    win7 能ping通dns, 但无法解析域名
    转 Windws Server 2012 Server Backup(备份与还原)
  • 原文地址:https://www.cnblogs.com/wanglinjie/p/9180950.html
Copyright © 2011-2022 走看看