zoukankan      html  css  js  c++  java
  • SEO优化技巧总结

    SEO优化技巧总结

    一:了解搜索引擎

    基础知识

    搜索引擎:由蜘蛛程序沿着链接爬行和抓取网上的大量页面,存进数据库,经过预处理,用户在搜索框 输入关键词后,搜索引擎排序从数据库中挑选出符合搜索关键词要求的页面,。

    在搜索时,有一些没用的停止词:的,得,地,啊,呀,从而,所以 ,却,the,a,an,to,of等,这些词对于页面的主要意思没有影响。

    PR值(发明人佩奇(Page)):把互联网理解为由结点及链接缓存的有向图,页面就是一个个结点,页面之间的有向链接传递着页面的重要性,一个链接传递的PR值决定于导入链接所在页面的PR值,发出链接的页面本身的PR越高,所能传递出去的PR值越高。传递的PR值也取决于页面上的导出链接数目。PR值也就是看别人怎么评价一个页面。

    高级搜索指令

    双引号:把搜索词放到双引号中,表示完全匹配搜索,

    减号:代表搜索不包含减号后面的词的页面。使用这个指令时,减号前面必须是空格,减号后面没有空格

    星号:(百度不支持)代表任何文字。

    Inurl:指令用于搜索查询词出现在URL中的页面。百度跟google都支持。

    Inanchor:指令返回的结果是导入链接锚文字中包含搜索词的页面。百度不支持。

    Intitle:指令返回的是页面title中包含资讯的页面。百度跟goole都支持

    Allintitle:搜索返回的是页面标题中包含多级关键词的文件。

            例如:allintitle:SEO 搜索引擎优化,就相当于intitle:SEO  intitle:搜索引擎优化

    Allinurl:与allintitle类似

    Filetyep:用于搜索特定的文件格式。

            例如:filetype:pdf SEO

    Site:是用来搜索某个域名下的所有文件。这个方法是查询网站收录页面数的最直接的方法。

    Link:用于搜索某个Url的反向链接,既包含内部链接,也包括外部链接。百度不支持。】

    Linkdomain:指令只适用于雅虎,返回的是某个域名的反向链接,

    Related:指令只适用于google,返回的结果是与某个网站关联的页面。

    关键词扩展

    最常见的工具还是google关键词工具及百度指数,

    关键词的分布:核心关键词位于塔尖,只有两三个,使用首页优化,

                  次一级关键词可能有几十个

                  更多的长尾关键词位于具体产品页面。

    二:网站结构优化

    目的:用户体验,收录,权重分配,锚文字。

    友好的网站设计

    1:搜索引擎蜘蛛能不能找到网页

       所有的页面可能通过可爬行的普通HTML链接达到,JS链接、Flash中的链接等搜索引擎蜘蛛一般不能跟踪爬行,就会造成收录问题。

    2:找到网页后能不能抓取页面内容

       数据库动态生成、带有过多参数URL、SessionID、整个页面是Flash、框架结构(frame)、可疑的转向、大量复制内容等都会使搜索引擎敬而远之

    3:

    避免蜘蛛陷阱

    1:flash,

    2:SessionID,

    3:各种的跳转,302跳转,JS跳转,Flash跳转、Meta Refresh跳转

       而301跳转是搜索引擎推荐的。

    4:框架结构,frame

    5:动态的URL,尽量对于动态的URL进行一下,静态化。

    6:JS链接,JS链接在SEO中有特殊的用途,就是站长不希望被收录的页面,不希望传递权重的链接,可以使用JS脚本阻挡搜索引擎爬行。

    7:要求登录的页面,搜索引擎无法看到,‘

    8:强制使用cookie,因为搜索引擎就相当于一个禁用了cookie的浏览器,所以如果cookie只能造成搜索蜘蛛无法正常访问。

    禁止收录机制

    1:robots文件:

    用于指令搜索引擎禁止抓取网站某些内容或指定允许抓取某些内容。如果文件不存在或者是空文件,表示搜索引擎抓取所有内容,最好的创建一个空的robots.txt文件。放到根目录下。

    而且这个文件是区分大小写的

       Robots文件记录格式为:

       <域>:<可选空格><域值><可选空格>

      例如:User-agent: *

            Disallow:/         

            上面的这个robots文件禁止所有搜索引擎抓取任何内容。

       User-agent:指定下面的规则适用于哪一个蜘蛛,通配符*代表所有搜索引擎。

       如果是只适用于百度蜘蛛则用:

            User-agent:Baiduspider

            只适用于google蜘蛛则用:

            User-agent:Googlebot

    Disallow:告诉蜘蛛不要抓取某些文件或者目录,

    例如:  User-agent:*

            Disallow:/cgi-bin/

            Disallow:/tmp/

            Disallow:/aa/index.html

      上面表示,阻止抓取某个目录下的内容及文件

    如果想要禁止多个也可以写成

    Disallow:/cgi-bin/ /tmp/  这种形式也可以。

    有Disallow相应的也就有Allow,

    Allow: /ab/cd/

    $通配符:匹配URL结尾的字符,

    Allow: .htm$

    上面的表示允许蜘蛛抓取以.htm为后缀的URL。

    *通配符:匹配任意一段字符,

    Disallow: /*.htm             表示禁止蜘蛛抓取所有的htm文件

    Sitemaps 位置:告诉蜘蛛XML网站地图在哪里,格式为:

    Sitemaps:<网站地图位置>

    需要注意的是,虽然,要想使URL完全不出现在搜索结果中,需要使用页面上的meta robots标签。

    2:meta robots标签

    用于指令搜索引擎禁止索引本页内容。

    最简单的Meta robots标签格式为:

    <meta name=”robots” content=”noindex,nofollow”>

    上面的意义是:禁止所有搜索引擎索引本页面。禁止跟踪本页面上的链接

    Noindex:告诉蜘蛛不要索引本页面。

    Nofollow:告诉蜘蛛不要跟踪本页面的链接

    Nosnippet:告诉搜索引擎不要在搜索结果中显示说明文字

    Noarchive:告诉搜索引擎不要显示快照

    Noodp:告诉搜索引擎不要使用开放目录中的标题和说明’

     3:nofollow的使用

      <a href=”#” rel=”nofollow”>这里是锚文字</a>

    链接的nofollow属性只适用于本链接,而之前的meta robots标签中的nofollow指的是页面上的所有的链接。搜索引擎看到这个标签是不会跟踪爬行,也不传递链接权重的锚文字。

    一般用于博客评论,论坛帖子,社会化网站,留言板等地方。因为这些地上 的链接不是经过站长自己编辑的,所以这个链接不是一个信任链接。

       另外,可用于广告链接,因为广告同时也是个链接,会影响权重流动和搜索引擎排名。

       还有例如联系我们,隐私政策,用户条款,用户登录等链接上,也需要使用nofollow

    此外:对于一些产品页面,例如里面有产品图片,名称,价格和比较价格按钮都是指向产品页面的链接,但是其中的价格跟“比较价格”就需要使用NF属性,使搜索引擎不要跟踪这两个链接,其意义就在于这两个链接的锚文字对于产品页面没有任何帮助,产品图片链接里面的ALT文字和名称的链接中的锚文字都可以使对应的产品页面相关性提高,改善排名。

    URL设计

    1:连接符的使用

    文件名中单词间最好使用短横线(-)分隔,不要使用下划线或其他更奇怪的字母,搜索引擎把URL中的短横线当做空格 处理,下划线是被忽略。

    2:网址规范化

    搜索引擎挑选最合适的URL作为真正(规范化)的网址的过程

    不同的URL访问的是同一个页面,例如:

     http://www.baidu.comhttp://www.baidu.com/

    http://www.baidu.comhttps://www.baidu.com

    http://www.baidu.com:80http://www.baidu.com

    因为网址的不规范化,会给搜索引擎收录和排名带来 很多麻烦,比如网站首页应该是固定的,只有一个,但是很站长在链接回首页时所使用的URL并不是唯一的。

    解决方法:

    3:301转向

    表示本网址永久性转移到另一个地址。

    302:表示临时性转向。

    其中的302转向,JS转向,Meta refresh等,除了301以外都是作弊手法 。

    301转向,能传递页面权重。

    使用:

         例如多个不同的URL访问是其实是一个页面时,就可以将这些所有的URL301转向到一个规范化的网址上去,

    4:Canonical标签(百度现不支持)

    <link rel=”canonical” href=www.baidu.com?item=swedish-fish/>

    意义就是这个网页的规范化网址应该是www.baidu.com?item=swedish-fish

    下面的这些URL都可以加上这段canonical标签

    www.baidu.com?item=swedish-fish&cd=1

    而这些URL规范化网址就是

    www.baidu.com?item=swedish-fish

    这个标签相当于一个页面内的301转身,区别在于用户并不被转向,还是停留在原网址上,而搜索引擎会把它当做是301转向处理,把页面权重集中到标签中指明的规范化网址上。

    注意:

    此标签最好使用绝对地址。

    比如电子商务网站上多按价格,时间,尺寸升降排序,生成的URL全都不一样,但是内容大体相同 ,就可以使用这个标签 ,

    5:绝对路径,相对路径

    使用绝对路径有助于解决网址规范化问题,

    产生复制内容

    1:原因

    打印版本:很多网站除了正常供浏览的页面外,还提供更适于打印的页面版本,

    使用SessionID:搜索引擎在不同时间访问网页的时候,被 给予了不现的sessionid,实际上网页内容是一样的。

    网页实质内容 太少:

    2:解决方法:

    如果是由于网址规范化问题造成的,则要进行网址的规范化。

    如果非网址规范化问题,则选取一个版本允许收录,其他 版本禁止搜索引擎抓取。既可以使用robots文件,也可以使用noindex meta robots标签禁止索引,连向不希望收录复制内容的链接使用nofollow,JS等阻止蜘蛛爬行。

    也可以使用canimal标签,带有sessionid的页面也可以使用canonical标签,

    网站地图

    1:HTML网站地图

    sitemap: 首字母s需要小写,

    2:XML网站地图

    Sitemap:首字母S大写。由XML标签组成,文件本身必须是utf8编码,网站地图文件实际上就是列出网站需要被收录的页面URL,

    例子:

    <?xml version="1.0" encoding="utf-8" ?>

    <urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9" >

        <url>

          <loc>http://www.example.com</loc>

          <lastmod>2010-01-01</lastmod>

          <changefreq>monthly</changefreq>

          <priority>0.8</priority>

        </url>

    </urlset>

    Lastmod表示页面最后一次的更新时间。

    Changefreq表示文件更新频率,标签值包括。

    Always:一直变动

    Hourly:每小时

    Daily:每天。

    Weekly:每星期

    Monthly:每月

    Yearly:每年

    Never:从不改变

    Priority是表示URL的相对重要程度。0.0-1.0之间的数值,1.0最重要。

    制作好网站地图后,有两种方式 通知搜索引擎网站地图的位置。

    一:在站长工具后台提交网站地图文件,

    二:在robots.txt文件中通知搜索引擎网站地图文件位置,

    Sitemap: http://www.example.com/sitemap.xml

    非必要页面

    每个网站都有一些在功能及用户体验方面很必要,但在EO角度没必要的页面,如隐私政策,用户登录页面,联系我们,甚至还包括关于我们,但是这些链接会造成权重的浪费,

    解决方法:

    1:只在首页显示链接,其他页面取消链接

    2:使这些碳的链接不能被跟踪或传递权重,例如nofollow标签或使用Js链接,某些在所有页面显示的链接可以这样处理,如用户注册及登录页面,

    3:例如电子商务网站列出的帮助信息,购物付款流程,送货信息,公司新闻等,这些页面从SEO角度看都没有什么价值。

    翻页过多

    1:多一层分类可以给大中型网站带来的结构利益是巨大的,

    2:对翻页链接进行格式变化,例如可以将翻页改成:

       1,2,3,4,5,10,20,30,40,50

    3:而且有的会做成两行的页数链接

       第一行:1,2,3,4,。。。。。。。。10

       第二行:11,21,31,41,。。。。101

    Meta标签客制化

    这里的meta标签指关键词标签(keyword tag)和说明标签(description tag)。系统站长应允许站长完全删除这两个标签,因为对搜索引擎排名几乎没有作用。

    生成正确的H标签

    不应该把所有页面的网站名称都祚在H1标签中,首页应该使用网站名称,或者允许客制化H1标签中的内容,分类页面应该把分类名称放入H1标签,而不是网站名称,产品页面,则应该把计算器名称放入H1标签

    三:页面优化

    1:页面标题

    建议title紧接着写在head之后,然后再写其它的标签和代码

    页面的标题要,独特不重复。即使在同一个网站 内,主题相同,不同页面具体内容不会相同,页面标题也不能重复每个页面都需要自己独特的标题标签,

    最常见的重复标题就是忘记写标题标签。最常见的是最内页直接调用 产品名称或者文章标题,分类页面使用分类名称,首页建义人工撰写。

    另外:

    有的时候生成独特标题并不是一件简单的事,比如电子商务网站的分类页面,同一个分类下产品数量比较多时,产品列表页面必然需要翻页,这些分类页面的标题通常都是“分类名称-网站名称”格式 ,这里程序员就需要在标题中加入页数。使翻面页面标签不同,分类第一页不必加页号,从第二页开始页面标题最前面加上“第二页”,“第三页”等文字,

    关键词出现在最前面:例如索尼数码相机-数码相机-电子产品-**电器网

    2:noodp标签

    网站被开放目录收录时,google,雅虎,bing有时候会取开放目录中的标题作为搜索结果列表中的页面标题,而不使用页面本身的TITLE标签内容,而开放目录中的标题是由编辑确定的,不一定是站长最想要的标题,站长可以使用noodp标签强制搜索引擎不使用开放目录标题。

    <meta name=”googlebot” content=”noodp”>

    同样也可以使用Noodp禁止搜索引擎使用开放目录的说明文字。

    3:关键词标签

    关键词标签为keywords,而且它是跟SEO没有关系的标签

    4:正文中的关键词

    一般来说,篇幅不大的页面出现两三次关键词就可以了,比较长的页面4-6次也已经足够。

    正文前50-100个词中出现的关键词权重比较高,最好第一段第一句话就出现关键词。

          

    5:H标签

    H1最重要,H6重要性最低,H3以下的标签权重很低了,和普通页面文字差不多了。

    6:ALT文字

    ALT文字是指图片的替换文字。

    但是里面最好不要堆积关键词,只要出现一次关键词就可以了。

    图片做成链接时,ALT文字就相当于设计院链接的锚文字 。主要用于英文网站中。

    7:精简代码

    1:使用外部文件定义CSS或者JS

    2:减少或删除注释

    3:减少表格,特别是嵌套表格

    4:HTML页面文件最好限制在100KB以下,页面上链接数在100个以下。百度目前建义HTML文件最好不要超过128K

    8:黑体及斜体

    搜索引擎给予黑体、斜体中的文字比普通文字多一点权重。

    黑体有时候有助于帮助分词。比如为避免搜索引擎把“搜索引擎优化”拆分,可以把这几个字全部设为黑体。

    9:页面更新

    对某些 有时效性的网站 来说,比如博客和新闻网站等,页面更新也常能提高排名。

    10:google沙盒效应

    沙盒效应:是指新网站在google很难得到好的排名,无论怎么优化这个网站。有点像给予新网站的试用期。在这段试用期内,新网站几乎无法在搜索竞争比较激烈的关键词时得到好的排名。

    四:外部链接建设

    1:google炸弹

    数目众多的外部链接指向某一个URL。

    这些链接都以特定关键词为链接锚文字

    被链接的页面一般并不包含这个关键词。

    2:交换链接中的小花招

    1:交换完链接后再删除链接

    2:刻意把友情链接页的权重降低

    方法就是只在首页或网站地图放上友情链接页的链接,其他页面都没有连向友情链接页的链接,或者链接放上Nofollow属性

    3:使友情链接页根本不能收录

    有的站长使友情链接页看似普通网页,链接结构也正常,但其它使用robots.txt文件或meta noindex标签使友情链接页根本不能被搜索引擎收录,解决方法:就是在交换链接时还得考虑链接页的PR值,页面有PR值,说明可以被搜索引擎收录。

    4:友情链接本身不传递权重

    友情链接加上nofollow属性,有的在页面HTML代码头部加上,meta nofollow标签,使页面上所有链接不能传递权重,

    有的做的更隐蔽,“链接”是通过转向,但通过使用JS,这样的除非你去检查页面的源代码否则 很难发现对方给的链接其实是通过脚本转向的

    5:链接页可能根本就是只给你准备的

    通常服务器配置使用html文件比php文件优先度高,用户访问http://www.domain.com时返回的首页是domain.com/index.html文件搜索引擎收录的也是这一个文件,对方却误导你让你觉得index.php就是首页,

    解决方法:

              访问网站的http://www.domain.com时,看一下真正的首页是哪一个页面。

    6:对方根本没有链接到你的网站

    情景:有些站长检查你的网站有哪些外部链接,然后告诉你:我已经从网站 A链接向你,主你连向我的网站B,

    问题:有可能是当前联系你的站长跟这一个网站A根本没有一点关系。

    7:做一个垃圾网站和你交换链接

    有的站长打着三向链接的旗号,要求你的链接必须得连向他的真正的商业性网站,他却从一个垃圾网站链接向你,这种垃圾网站最常见的形式就是垃圾目录,没有什么权重,也没有真实的访问流量,是专门用来做友情链接的。

    五:SEO作弊手法

    1:隐藏文字

    页面上出现用户看不到,但搜索引擎能看到的文字。一般都是包含大量关键词。

    使用微小文字。

    2:隐藏链接

    3:垃圾链接

    指站长为了提高排名,在其他任何可以留言的网站留下自己的链接,比如开放评论的博客,留言板,论坛,文章带有评论功能的网站,等。

    4:链接农场

    指整个网站或网站中的一部分页面,没有任何实质内容,完全是为了交换链接而存在。很多时候是同一个公司或站长所控制的一群网站。

    5:隐藏页面

    是页面使用程序判断访问者是普通用户还是搜索引擎蜘蛛,如果是普通用户返回一个不考虑SEO,只是给用户看的正常页面,如果是搜索引擎则返回一个高度优化,常常优化到语句已经没办法读的程度的页面。

    判断网站是否使用了隐藏页面的解决方法:

    访问网站时改变浏览器的用户代理(user-agent),将自己的浏览器伪装成搜索引擎蜘蛛,

    不过比较高级的隐藏页面程序还会检查访问来自哪一个IP地址,

    另外一下判断方法就是看网页在搜索引擎中的快照,如果快照中显示的和用户在浏览器中看到的内容差别巨大,就说明是隐藏页面技术。

    6:PR劫持

    如果作弊者从域名A做301或302转向到域名B,而B的PR值是比较高的,则域名A在PR更新后,也会显示跟域名B的PR值,

    解决方法:就是查看google的网页快照

    最后,小知识

    1:如果网站是以PPC广告,也就是按付费广告为主,那么网站目标就是让浏览者点击广告链接,

    如果网站是以CPM也就是按显示次数付费为主广告,浏览者在网站上停留的时间越长越好,打开大越多越好,最好不要离开网站。

    2:信息类网站 靠显示广告赢利,网站目标是尽量增加页面访问数(PV),在网站结构上要提高PV将文章 公布是方法之一,所以大家可以看到很多门户资讯网站将明明 不长的文章公为几页,代价是页面和链接权重分散,收录可能成为问题。

    3:百度跟google的区别

      在收录方面,google很容易收录,但是因为沙盒效应,获得好的排名难,

                  百度收录难,一旦收录,排名越好,

                  百度有很大的首页优势,而google对所有的页面一视同仁,

                  Google对外部链接很重视,但对页面元素没有那么敏感

                  百度对外部链接的依赖性比较小,对页面本身的相关性却比较敏感。这种敏感既体在,在正确的地方出现关键词有助一起排名,也体现在关键词显得堆积时,更容易引来惩罚,相比之下,google既不会因为关键词出现次数多给予好的排名,也不会因为关键词出现次数过多给予惩罚。

                  百度对网站更新比较看重,持续有规律的增加内容往往可以有效地提高 在百度的排名,而google对内容更新没有百度那么敏感,

    4:网站改版注意事项

      网站改版时尽量不要同时更改导航系统,对主要导航系统的修改,往往会使网站上链接结构,页面权重的流动和分配产生重大改变,所以应该在网站CMS系统或URL系统修改完成后几个月之后,收录已经恢复原有水平之后再修改导航系统。

    5:网站logo,所有页面左上角的Logo做成 连至首页的链接,ALT文字,图片文字相当于链接锚文字,为避免过度优化,与首页title稍作区别。

    个人能力有限以后会补充,欢迎斧正!

    推荐博客及图书:SEO每天一贴

  • 相关阅读:
    Project Euler 5 Smallest multiple
    Project Euler 4 Largest palindrome product
    CSS3新增的伪类选择器
    CSS选择器
    HTML 5 表单相关元素和属性
    HTML 5中的新特性
    HTML表格相关元素
    列表相关元素及其属性
    HTML行内元素、块状元素和行内块状元素的区分
    对HTML的大致了解
  • 原文地址:https://www.cnblogs.com/bsyblog/p/4182721.html
Copyright © 2011-2022 走看看