zoukankan      html  css  js  c++  java
  • Python之路:爬虫之urllib库的基本使用和高级使用

    关于爬虫自己一直在看,所以时间太慢,这才第二更,有等不及的小伙伴可以慢慢的品尝了,在看下面的之前,建议先把上一章看一下。以下是关于python的Urllib的基础和高级用法。

    1、如何扒下一个网站,用最短的时间

    每一个网站都是根据url获取页面信息,页面信息就是通过一段html代码,加js、css。html是骨架,js是肌肉,css是衣服,一下写一个简单的实例:

    wolf@ubuntu-python:~/python$ sudo vi demo.py 
    #!/usr/bin/python
    #coding:utf-8
    import urllib2  #导入urllib2库
    
    response = urllib2.urlopen("http://www.baidu.com")  #获取百度url    
    print response.read()   #读取url函数
    

    这就是一个简单的爬虫,保存运行一下看看都爬取了什么。

     1 wolf@ubuntu-python:~/python$ python demo.py 
     2 <html>
     3 <head>
     4 <meta http-equiv="Content-Type" content="text/html; charset=utf-8" />
     5 <META HTTP-EQUIV="Pragma" CONTENT="no-cache">
     6 <META HTTP-EQUIV="Cache-Control" CONTENT="no-cache">
     7 <META HTTP-EQUIV="Expires" CONTENT="0">
     8 <title>百度一下,你就知道</title>
     9 </head>
    10 <body>
    11 <script>
    12 (function(d){
    13 function isCkie(){
    14     var isSupport=false;
    15     if(typeof(navigator.cookieEnabled)!='undefined'){
    16         isSupport=navigator.cookieEnabled;
    17         }
    18         return isSupport;
    19 }
    20 
    21 //Cookie相关函数
    22 var sCkie=new function(){
    23 //过期时间
    24 this.expTime=function(millisecond){if(millisecond.length==0){millisecond=0};var exp=new Date();exp.setTime(exp.getTime()+parseInt(millisecond));return exp.toGMTString();};
    25 //创建cookie
    26 this.add=function(name,value,expires,path,domain,secure){d.cookie=name+"="+encodeURI(value)+(expires?(';expires='+expires):'')+(path?(';path='+path):'')+(domain?(';domain='+domain):'')+((secure)?';secure':'');};
    27 //删除cookie
    28 //this.del=function(name,path,domain){if(getCookie(name)){document.cookie=name+"="+((path)?(";path="+path):'')+((domain)?(";domain="+domain):'')+";expires=Mon,01-Jan-2006 00:00:01 GMT";}};
    29 //获取cookie
    30 this.get=function(name){var arg=name+"=";var alen=arg.length;var theCookie=''+d.cookie;var inCookieSite=theCookie.indexOf(arg);if(inCookieSite==-1||name==""){return '';}var begin=inCookieSite+alen;var end=theCookie.indexOf(';',begin);if(end==-1){end=theCookie.length;}return decodeURI(theCookie.substring(begin,end));};
    31 };
    32 var gUrl;
    33 if(isCkie()){
    34         var ckie=0;
    35         var sid='lpvt_f6461a705844d7177814f8a1aa45aaa5';
    36         var skie=sCkie.get(sid);
    37         if (skie!='')
    38         {
    39                 ckie=parseInt(skie);
    40         }
    41 
    42         if(ckie<1){
    43                 var rand=Math.random();
    44                 if(rand<1.8){
    45                         gUrl="https://www.baidu.com/index.php?tn=01025065_7_pg";
    46                 }else{
    47                         gUrl="https://www.baidu.com/";
    48                 }
    49                 sCkie.add(sid,'1',sCkie.expTime(30*60*1000),0,0,0);
    50         }else{
    51                 gUrl="https://www.baidu.com/";
    52         }
    53 }else{
    54         gUrl="https://www.baidu.com/";
    55 }
    56 (function(u){if(window.navigate&&typeof navigate=='function')navigate(u);var ua=navigator.userAgent;if(ua.match(/applewebkit/i)){var h = document.createElement('a');h.rel='noreferrer';h.href=u;document.body.appendChild(h);var evt=document.createEvent('MouseEvents');evt.initEvent('click', true,true);h.dispatchEvent(evt);}else{document.write('<meta http-equiv="Refresh" Content="0; Url='+u+'" >');}})(gUrl);
    57 })(document);
    58 </script>
    59 </body>
    60 </html>
    61 
    62 wolf@ubuntu-python:~/python$ 
    demo

    没错,你没看错,这个就是简单的百度页面源码,是不是很简单。

    2、解析上例

    先看第一行导入库

    import urllib2  #导入urllib2库
    

    urllib2是python的一个获取urls的组件它以urlopen函数的形式提供了一个非常简单的接口,也会根据urls的协议获取能力,提供比较复杂的接口,例如:基础验证、cookies、代理和其它。更多详情

    第二行代码获取url

    response = urllib2.urlopen("http://www.baidu.com")  #获取百度url  
    

    调用了urllib2库里的urlopen方法,传入一个url,协议是http协议,也可以换做ftp、file、https等等,只是代表了一种控制协议,urlopen一般接受三个参数,参数如下:

    urlopen(url, data, timeout)
    

    第一个参数是url即为URL,第二个参数data是访问URL时要传送的数据,第三个timeout是超时时间。

    后边的两个参数data、timeout是可以不传送的,data默认是空的,timeout默认为socket._GLOBAL_DEFAULT_TIMEOUT所以第一个参数是必须要传送的,上面的例子里传送里百度的url,执行urlopen方法之后,返回一个response对象,返回信息便保存在这里。

    print response.read()   #读取url函数
    

    response对象有一个read方法,可以获取页面的内容。

    如果不加read直接打印会是什么?答案如下:

    wolf@ubuntu-python:~/python$ python demo.py 
    <addinfourl at 139701058454736 whose fp = <socket._fileobject object at 0x7f0eb1e7b7d0>>
    

    直接打印出的是对象的描述,所以一顶要加read方法,否则打印的就不是网页的内容了。

    3、构造Requset

    其实上面的urlopen参数可以传入一个request请求,它其实就是一个Requset类的实例,构造时需要传入url、Data等等等内容。所以上面的代码也可以这样写。

    wolf@ubuntu-python:~/python$ sudo vi demo.py 
    #!/usr/bin/python
    #coding:utf-8
    import urllib2
    
    request = urllib2.Request("http://www.baidu.com")  #构建一个request对象
    response = urllib2.urlopen(request)  #请求request对象的url
    print response.read() #读取request对象的url的函数
    

    两者的运行结果是一样的,只是中间多了一个request对象,因为在构建请求时还需要加入好多内容,所以推荐大家这样写。通过构建一个request,服务器响应请求得到应答,这样显得逻辑清晰明确。

    4、POST和GET数据传送

    上面是最基本的网页抓取,不多对于大多数的动态网页,需要动态的传递参数给它,它做出对应的响应。所以,在访问时,需要传递数据给它。最常见的就是注册登录。

    把数据用户名和密码传送到一个url,服务器得到处理之后到响应,后面如何处理,请继续往下看。

    数据的传输分为POST和GET两个方式,至于两个方式的区别呢?下面为您揭晓。

    最重要的是GET的方式是直接以链接的形式访问,链接  

      

      

    wolf@ubuntu-python:~/python$ sudo vi demo.py 
    #!/usr/bin/python
    #coding:utf-8
    import urllib2  #导入urllib2库
    
    response = urllib2.urlopen("http://www.baidu.com")  #获取百度url    
    print response.read()   #读取url函数

      

      

      

      

      

  • 相关阅读:
    吐血巨献:VB网络编程(webbrowser+Inet+抓包封包+经验)
    亦思验证码识别系统3.1详解
    开机自动连接宽带程序
    轻松报选修智能报选修程序(适用于正方教学管理系统)
    低调发布一个百度谷歌关键字搜索工具
    解惑:Postmessage函数模拟鼠标单击指定坐标
    分享一些经典资源
    英文单词缩写查询
    css控制的个性导航栏
    导航栏中加入自动弹出下拉菜单
  • 原文地址:https://www.cnblogs.com/wulaoer/p/5705716.html
Copyright © 2011-2022 走看看