zoukankan      html  css  js  c++  java
  • PHP CURL或file_get_contents获取网页标题的代码及两者效率的稳定性问题

    PHP CURL与file_get_contents函数都可以获取远程服务器上的文件保存到本地,但在性能上面两者完全不在同一个级别,下面我先来介绍PHP CURL或file_get_contents函数应用例子,然后再简单的给各位介绍一下它们的一些小区别吧。

    推荐方法 CURL获取

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    <?php
    $c = curl_init();
    $url = 'www.jb51.net';
    curl_setopt($c, CURLOPT_URL, $url);
    curl_setopt($c, CURLOPT_RETURNTRANSFER, 1);
    $data = curl_exec($c);
    curl_close($c);
    $pos = strpos($data,'utf-8');
    if($pos===false){$data = iconv("gbk","utf-8",$data);}
    preg_match("/<title>(.*)<\/title>/i",$data, $title);
    echo $title[1];
    ?>

    使用file_get_contents

    1
    2
    3
    4
    5
    6
    7
    8
    9
    <?php
    $content=file_get_contents("http://www.jb51.net/");
    $pos = strpos($content,'utf-8');
    if($pos===false){$content = iconv("gbk","utf-8",$content);}
    $postb=strpos($content,'<title>')+7;
    $poste=strpos($content,'</title>');
    $length=$poste-$postb;
    echo substr($content,$postb,$length);
    ?>

    看看file_get_contents性能

    1)fopen/file_get_contents 每次请求远程URL中的数据都会重新做DNS查询,并不对DNS信息进行缓存。但是CURL会自动对DNS信息进行缓存。对同一域名下的网页或者图片的请求只需要一次DNS 查询。这大大减少了DNS查询的次数。所以CURL的性能比fopen/file_get_contents 好很多。
    2)fopen/file_get_contents在请求HTTP时,使用的是http_fopen_wrapper,不会keeplive。而curl却可以。这样在多次请求多个链接时,curl效率会好一些。(设置header头应该可以)
    3)fopen/file_get_contents函数会受到php.ini文件中allow_url_open选项配置的影响。如果该配置关闭了,则该函数也就失效了。而curl不受该配置的影响。
    4)curl可以模拟多种请求,例如:POST数据,表单提交等,用户可以按照自己的需求来定制请求。而fopen/file_get_contents只能使用get方式获取数据。
    5)fopen/file_get_contents 不能正确下载二进制文件
    6)fopen/file_get_contents 不能正确处理ssl请求
    7)curl 可以利用多线程
    8)使用 file_get_contents 的时候如果 网络出现问题, 很容易堆积一些进程在这里
    9)如果是要打一个持续连接,多次请求多个页面。那么file_get_contents就会出问题。取得的内容也可能会不对。所以做一些类似采集工作的时候,肯定就有问题了。对做采集抓取的用curl,如果还有同不相信下面我们再做个测试

    curl与file_get_contents性能对比PHP源代码如下:

    1829.php

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
    27
    28
    29
    30
    31
    32
    33
    34
    35
    36
    37
    38
    39
    40
    41
    42
    43
    44
    45
    46
    47
    48
    49
    50
    51
    52
    53
    54
    55
    56
    <?php
    /**
    * 通过淘宝IP接口获取IP地理位置
    * @param string $ip
    * @return: string
    **/
    function getCityCurl($ip)
    {
    $ch = curl_init();
    $timeout = 5;
    curl_setopt ($ch, CURLOPT_URL, $url);
    curl_setopt ($ch, CURLOPT_RETURNTRANSFER, 1);
    curl_setopt ($ch, CURLOPT_CONNECTTIMEOUT, $timeout);
    $file_contents = curl_exec($ch);
    curl_close($ch);
    $ipinfo=json_decode($file_contents);
    if($ipinfo->code=='1'){
    return false;
    }
    $city = $ipinfo->data->region.$ipinfo->data->city;
    return $city;
    }
    function getCity($ip)
    {
    $ipinfo=json_decode(file_get_contents($url));
    if($ipinfo->code=='1'){
    return false;
    }
    $city = $ipinfo->data->region.$ipinfo->data->city;
    return $city;
    }
    // for file_get_contents
    $startTime=explode(' ',microtime());
    $startTime=$startTime[0] + $startTime[1];
    for($i=1;$i<=10;$i++)
    {
    echo getCity("121.207.247.202")."</br>";
    }
    $endTime = explode(' ',microtime());
    $endTime = $endTime[0] + $endTime[1];
    $totalTime = $endTime - $startTime;
    echo 'file_get_contents:'.number_format($totalTime, 10, '.', "")." seconds</br>";
    //for curl
    $startTime2=explode(' ',microtime());
    $startTime2=$startTime2[0] + $startTime2[1];
    for($i=1;$i<=10;$i++)
    {
    echo getCityCurl('121.207.247.202')."</br>";
    }
    $endTime2 = explode(' ',microtime());
    $endTime2=$endTime2[0] + $endTime2[1];
    $totalTime2 = $endTime2 - $startTime2;
    echo "curl:".number_format($totalTime2, 10, '.', "")." seconds";
    ?>

    测试访问

    file_get_contents速度:4.2404510975 seconds
    curl速度:2.8205530643 seconds
    curl比file_get_contents速度快了30%左右,最重要的是服务器负载更低.

    ps:php函数file_get_contents与curl效率及稳定性问题

    习惯了使用方便快捷的file_get_contents函数抓取别家网站内容,但是总是会遇到获取失败的问题,尽管按照手册中的例子设置了超时,可多数时候不好使:

    $config['context'] = stream_context_create(array('http' => array('method' => "GET",'timeout' => 5)));
    'timeout' => 5//这个超时时间不稳定,经常不好使。这时候,看一下服务器的连接池,会发现一堆类似下面的错误,让你头疼万分:

    file_get_contents(http://***): failed to open stream…

    不得已,安装了curl库,写了一个函数替换:

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    function curl_get_contents($url)
    {
    $ch = curl_init();
    curl_setopt($ch, CURLOPT_URL, $url); //设置访问的url地址
    //curl_setopt($ch,CURLOPT_HEADER,1); //是否显示头部信息
    curl_setopt($ch, CURLOPT_TIMEOUT, 5); //设置超时
    curl_setopt($ch, CURLOPT_USERAGENT, _USERAGENT_); //用户访问代理 User-Agent
    curl_setopt($ch, CURLOPT_REFERER,_REFERER_); //设置 referer
    curl_setopt($ch,CURLOPT_FOLLOWLOCATION,1); //跟踪301
    curl_setopt($ch, CURLOPT_RETURNTRANSFER, 1); //返回结果
    $r = curl_exec($ch);
    curl_close($ch);
    return $r;
    }

    如此,除了真正的网络问题外,没再出现任何问题。

    这是别人做过的关于curl和file_get_contents的测试:

    file_get_contents抓取google.com需用秒数:

    2.31319094
    2.30374217
    2.21512604
    3.30553889
    2.30124092

    curl使用的时间:

    0.68719101
    0.64675593
    0.64326
    0.81983113
    0.63956594

    差距很大吧?呵呵,从我使用的经验来说,这两个工具不只是速度有差异,稳定性也相差很大。建议对网络数据抓取稳定性要求比较高的朋友使用上面的 curl_file_get_contents函数,不但稳定速度快,还能假冒浏览器欺骗目标地址哦!

  • 相关阅读:
    scrapy安装教程
    【bzoj4200】[Noi2015]小园丁与老司机 STL-map+dp+有上下界最小流
    【bzoj4889】[Tjoi2017]不勤劳的图书管理员 树状数组+分块+二分
    【bzoj4198】[Noi2015]荷马史诗 贪心+堆
    【bzoj2989】数列 KD-tree+旋转坐标系
    【bzoj4212】神牛的养成计划 Trie树+可持久化Trie树
    【bzoj4242】水壶 BFS+最小生成树+倍增LCA
    【bzoj4238】电压 DFS树
    【bzoj4240】有趣的家庭菜园 贪心+树状数组
    【bzoj4237】稻草人 分治+单调栈+二分
  • 原文地址:https://www.cnblogs.com/dsli/p/7449940.html
Copyright © 2011-2022 走看看