zoukankan      html  css  js  c++  java
  • [Python]网络爬虫(二):利用urllib2通过指定的URL抓取网页内容

    版本号:Python2.7.5,Python3改动较大。

    所谓网页抓取,就是把URL地址中指定的网络资源从网络流中读取出来,保存到本地。 
    类似于使用程序模拟IE浏览器的功能,把URL作为HTTP请求的内容发送到服务器端, 然后读取服务器端的响应资源。


    在Python中,我们使用urllib2这个组件来抓取网页。
    urllib2是Python的一个获取URLs(Uniform Resource Locators)的组件。

    它以urlopen函数的形式提供了一个非常简单的接口。

    最简单的urllib2的应用代码只需要四行。

    我们新建一个文件urllib2_test01.py来感受一下urllib2的作用:

    import urllib2  
    response = urllib2.urlopen('http://www.sina.com/')  
    html = response.read()  
    print html  

    按下F5可以看到运行的结果:

    我们可以打开新浪主页,右击,选择查看源代码(火狐OR谷歌浏览器均可),会发现也是完全一样的内容。

    也就是说,上面这四行代码将我们访问新浪时浏览器收到的代码们全部打印了出来。

    这就是一个最简单的urllib2的例子。

    除了"http:",URL同样可以使用"ftp:","file:"等等来替代。

    HTTP是基于请求和应答机制的:

    客户端提出请求,服务端提供应答。

    urllib2用一个Request对象来映射你提出的HTTP请求。

    在它最简单的使用形式中你将用你要请求的地址创建一个Request对象,

    通过调用urlopen并传入Request对象,将返回一个相关请求response对象,

    这个应答对象如同一个文件对象,所以你可以在Response中调用.read()。

    我们新建一个文件urllib2_test02.py来感受一下:

    import urllib2    
    req = urllib2.Request('http://www.sina.com')    
    response = urllib2.urlopen(req)    
    the_page = response.read()    
    print the_page 

    可以看到输出的内容和test01是一样的。

    urllib2使用相同的接口处理所有的URL头。例如你可以像下面那样创建一个ftp请求。

    req = urllib2.Request('ftp://example.com/')  

    在HTTP请求时,允许你做额外的两件事。

    1.发送data表单数据

    这个内容相信做过Web端的都不会陌生,

    有时候你希望发送一些数据到URL(通常URL与CGI[通用网关接口]脚本,或其他WEB应用程序挂接)。

    在HTTP中,这个经常使用熟知的POST请求发送。

    这个通常在你提交一个HTML表单时由你的浏览器来做。

    并不是所有的POSTs都来源于表单,你能够使用POST提交任意的数据到你自己的程序。

    一般的HTML表单,data需要编码成标准形式。然后做为data参数传到Request对象。

    编码工作使用urllib的函数而非urllib2。

    我们新建一个文件urllib2_test03.py来感受一下:

  • 相关阅读:
    (收藏)基于.net开发平台项目案例集锦
    记录:在ASP.NET中使用ActiveX插件时遇到的问题
    [转]三种邮件服务器的比较
    (收藏)30岁,开始实现我的程序员梦
    [转]加密狗原理介绍
    从临时表返回数据时遇到的问题(ORA08103: object no longer exists)
    Response.Flush的使用心得
    C#编程向VFP数据库中插入Numeric型的值(foxpro,dbf)
    [转]Web部件错误:此网页存在致命错误
    Win2003Server出现了很多的“桌面”
  • 原文地址:https://www.cnblogs.com/ghgyj/p/4047203.html
Copyright © 2011-2022 走看看