zoukankan      html  css  js  c++  java
  • 压缩,让网络更快

    原文 Use compression to make the web faster

    压缩,让网络更快

    作者: By Arvind Jain, Engineering Director and Jason Glasgow, Staff Software Engineer

    简介

    互联网上,每天有超过99人年浪费在下载未经压缩的内容上面。虽然支持压缩已经是每个现代的浏览器的标准功能了,但是它们的使用者们往往还是由于这样那样的原因不能下载到压缩的数据。这样就造成了带宽浪费并且拖慢了用户和网页的交互。

    数据不压缩对所有的使用者都是一种伤害。对于窄带用户,下载那些多余的数据花费了更多的时间。而对于宽带用户,虽然数据传输非常快,但是在进入所能达到的最高速的数据传输之前,不压缩的数据也需要更多的网络间往返(IP包)(emu注:这里指的大概是宽带用户在访问多媒体网站时,在高速下载多媒体内容之前,需要先下载网页、css和脚本的资源),这种情况下,网络间的往返次数(IP包个数)在装载一个完整的网页所需要的时间中是一个比网速更大的影响因素。即使网络状况非常好的用户哪里,这些多余的网络间往返也经常会多耗费数十甚至上百毫秒的时间。

    Steve Souders 的《Even Faster Web Sites》里面,Tony Gentilcore用数据展现出了禁止压缩时页面装载时间的增加的情况。在得到了许可后,我们也重现了其总三个Alexa 排名最高等级的网站的测速结果:

     

    网站

    Alexa 排名

    下载时间增长量(首次打开时)

    页面加载时间增长
    (1000/384 Kbps DSL)(宽带)

    页面加载时间增长
    (56 Kbps modem)(窄带)

    www.google.com

    1

    10.3KB (44%)

    0.12(12%)

    1.3 (25%)

    www.facebook.com

    2

    348 KB (175%)

    9.4 (414%)

    63(524%)

    www.yahoo.com

    3

    331 KB (126%)

    1.2 (64%)

    9.4 (137%)

    数据来自Steve Souders的《 Even Faster Web Sites》中的9章:超越Gzip压缩,经过作者许可。

     

    Googleweb搜索日志也显示,下载未经压缩数据的用户比下载压缩数据的用户评价多花费25%的页面装载时间。在一个随机试验中,我们强行给一些(声称)不接受压缩数据的用户推送了压缩数据,结果我们测量到它们的页面延迟有300毫秒的提升。不过这个试验不能完全说明问题,因为这些被强行推送压缩数据的用户中有一些可能是误伤的,因为它们可能真的是在比较老式的计算机上使用比较老的(不支持压缩的)软件(后面会讲到,更多的可能并非如此)。

    它们为啥不支持压缩?

    我们发现有4种常见的原因导致用户接受不到压缩内容:杀毒软件,浏览器缺陷,网络代理和服务器配置错误。前面3种影响了网络请求导致了网络服务器不知道浏览器其实能解压内容,尤其是它们错误的吧浏览器本来应该在每个请求中发送给服务器的Accept-Encoding 这个http头给去掉或者破坏了。

    杀毒软件可能是为了减少cpu占用,对网络请求进行了拦截和篡改,这样服务器就会发送不压缩的数据给客户端(这样它们就不用先解压后查毒而可以直接查毒了)。但是,如果CPU是系统的性能瓶颈,那么杀毒软件这样做根本不是在帮忙而是在添乱。一些著名的杀毒软跟网络压缩有冲突。网友们自行可以到Browserscope.org上的浏览器压缩支持测试页面上验证一下自己的杀毒软件是否和网络压缩有冲突。

    默认情况下IE6浏览器在通过代理服务器访问网络的时候会降级通讯协议为HTTP/1.0,其结果就是不会发送一个Accept-Encoding的请求头部。下面的表格是从Google的网络搜索日志中生成出来的,显示出来自IE6的搜索在所有未声明接受压缩结果的搜索中占了36%。这个比例比IE6的实际使用比例要高。

     

     

    浏览器

    搜索结果中要求不压缩的比例

    在所有未声明支持压缩的搜索中所占的比例

    Google Chrome

    1

    1

    Safari

    1

    1

    Firefox 3.5

    3

    4

    Internet Explorer 8

    6

    5

    Firefox 3.0

    6

    7

    Other

    46

    22

    Internet Explorer 7

    7

    24

    Internet Explorer 6

    20

    36

    数据来自Google网络搜索日志

    还有那么一小撮ISP,它们的未压缩内容(未声明接受压缩的请求)的比例超过了95%。一个看起来有道理的假设是,这些ISP或者公司代理去掉或者篡改了Accept-Encoding这个HTTP头部。和杀毒软件的情况一样,怀疑自己的ISP和网络压缩有冲突的网友们自行可以到Browserscope.org上的浏览器压缩支持测试页面上验证一下。

    最后还有一种情况,用户下载到了未经压缩的内容是因为访问的网站根本就不压缩内容。下面的表格显示了几个不压缩内容的流行站点。这些网站要是压缩它们的内容,它们平均可以给每个访客减少数百毫秒的页面加载时间,对于那些窄带用户影响更为明显。


    网站 资源类型 可压缩的字节数
    www.cnn.com CSS and JavaScript 330 kB
    www.twitter.com CSS and JavaScript 40 kB
    www.bbc.co.uk CSS and JavaScript 201 kB

     

    数据使用Page Speed生成

    该怎么做?

    为了减少未压缩的数据,我们需要一起努力

    · 公司里的IT部门和独立的个人用户可以升级浏览器,尤其是用IE6通过代理服务器上网的用户。使用最新版本的 FirefoxInternet ExplorerOperaSafari, 或者 Google Chrome 可以增加下载到压缩后数据的机会。一份最近的IEEE分析期刊社论中列出了更多的——除了压缩之外——的升级掉IE6浏览器的理由。

    · 杀毒软件供应商可以开始正确的解决压缩问题,在后续的发行版中停止篡改和删除Accept-Encoding这个HTTP头部。

    · 那些使用http代理并且把Accept-Encoding这个HTTP头部篡改或者剥离掉的ISP们,可以升级、重新配置或者安装一个好一点的不会禁止用户使用压缩功能的代理服务器。

    · 网络管理员们可以用Page Speed(或者其他类似的工具)来检测自己的网页内容是否是经过压缩的。

     

  • 相关阅读:
    安装python软件出错,解决办法
    vt100
    Navicat 字符集 排序规则设置
    linux 查看进程 ps aux | grep init
    一、网络编程-UDP传输协议及socket套接字使用
    二、飞机大战终极版-巩固面向对象设计项目的思想
    一、利用Python编写飞机大战游戏-面向对象设计思想
    八、递归编程技巧
    七、面向对象之单例设计模式
    六、面向对象之单继承、多继承、重写
  • 原文地址:https://www.cnblogs.com/stonehuang/p/6603194.html
Copyright © 2011-2022 走看看