zoukankan      html  css  js  c++  java
  • 关于SEO优化方案

    < DOCTYPE html PUBLIC -WCDTD XHTML TransitionalEN httpwwwworgTRxhtmlDTDxhtml-transitionaldtd>

    1.title标签网站标题

          一般格式:文章名 – 分类名 – 网站名
          如果太长的话,就只要文章名 – 网站名

           搜索引擎只考虑标题标签中有限的字数,比如说前十到前十五个字。所以很长的充满关键词的title tag,只能使你的网站看起来更像垃圾。

    2.meta标签

           标题标签不要超过十到十二个字。描述标签也不要超过三十到三十五个字。关键词标签只要列出确实和你的网站有关的重要关键词
            在这所有的三个标签里,都切忌重复和堆砌关键词。meta不要每个页面都千篇一律。

    3.URL中的关键词

          对英文网页来说,关键词出现在URL中,多少会有点帮助。对搜索引擎相关性算法的帮助可能很小,但其实对用户帮助蛮大的。因为搜索结果列在搜索引擎中时,用户可以从你的文件名就判断出这个网页是讨论什么的。
           关键词可以在域名里,也可以在目录名里,也可以是文件名,不过切忌关键词堆砌在URL中。

    4.文章长度有利于SEO

          首先,文章最短也应该在200字左右以上。原因有两个:
          1)如果只有几十个字,搜索引擎不容易判断出文字的主题是什么,也就判断不出与什么关键词最相关。
           2)正文太短的话,有可能比导航系统,菜单,版权声明等杂七杂八的东西加起来的字数还少,被怀疑是复制内容。如果这样的文字过少的页面大量存在,可能造成网站内部复制网页增多。因为你的网页之间相似性太高,有区别的文字太短。
          长文章容易吸引链接。看过很多很长的文章,甚至长到几十页。虽然读的时候拉来拉去有点儿不方便,但这样的文章其实是比较容易吸引链接的。

    5.robots.txt使用

          robots.txt是搜索引擎中访问网站的时候要查看的第一个文件。Robots.txt文件告诉蜘蛛程序在服务器上什么文件是可以被查看的。
           语法:最简单的 robots.txt 文件使用两条规则:
            User-Agent: 适用下列规则的漫游器
           Disallow: 要拦截的网页

      1. 每当用户试图访问某个不存在的URL时,服务器都会在日志中记录404错误(无法找到文件)。每当搜索蜘蛛来寻找并不存在的robots.txt文件时,服务器也将在日志中记录一条404错误,所以你应该在网站中添加一个robots.txt。
      2. 网站管理员必须使蜘蛛程序远离某些服务器上的目录——保证服务器性能。比如:大多数网站服务器都有程序储存在“cgi-bin”目录下,因此在robots.txt文件中加入“Disallow: /cgi-bin”是个好主意,这样能够避免将所有程序文件被蜘蛛索引,可以节省服务器资源。一般网站中不需要蜘蛛抓取的文件有:后台管理文件、程序脚本、附件、数据库文件、编码文件、样式表文件、模板文件、导航图片和背景图片等等。
        User-agent:
      该项的值用于描述搜索引擎robot的名字。在"robots.txt"文件中,如果有多条User-agent记录说明有多个robot会受到"robots.txt"的限制,对该文件来说,至少要有一条User-agent记录。如果该项的值设为*,则对任何robot均有效,在"robots.txt"文件中,"User-agent:*"这样的记录只能有一条。如果在"robots.txt"文件中,加入"User-agent:SomeBot"和若干Disallow、Allow行,那么名为"SomeBot"只受到"User-agent:SomeBot"后面的Disallow和Allow行的限制。
      Disallow:
      该项的值用于描述不希望被访问的一组URL,这个值可以是一条完整的路径,也可以是路径的非空前缀,以Disallow项的值开头的URL不会被robot访问。例如"Disallow:/help"禁止robot访问/help.html、/helpabc.html、/help/index.html,而"Disallow:/help/"则允许robot访问/help.html、/helpabc.html,不能访问/help/index.html。"Disallow:"说明允许robot访问该网站的所有url,在"/robots.txt"文件中,至少要有一条Disallow记录。如果"/robots.txt"不存在或者为空文件,则对于所有的搜索引擎robot,该网站都是开放的。
      Allow:
      该项的值用于描述希望被访问的一组URL,与Disallow项相似,这个值可以是一条完整的路径,也可以是路径的前缀,以Allow项的值开头的URL是允许robot访问的。例如"Allow:/hibaidu"允许robot访问/hibaidu.htm、/hibaiducom.html、/hibaidu/com.html。一个网站的所有URL默认是Allow的,所以Allow通常与Disallow搭配使用,实现允许访问一部分网页同时禁止访问其它所有URL的功能。
      需要特别注意的是Disallow与Allow行的顺序是有意义的,robot会根据第一个匹配成功的Allow或Disallow行确定是否访问某个URL。
      使用"*"和"$":
      Baiduspider支持使用通配符"*"和"$"来模糊匹配url。
      "$" 匹配行结束符。
      "*" 匹配0或多个任意字符。

    6.建立sitemap站点地图

          XML地图可以让搜索引擎更迅速地了解你站点的更新。Google和yahoo都已经使用sitemap xml地图加速收录服务了。

  • 相关阅读:
    013.ES6 -对象字面量增强型写法
    012. ES6
    011. ES6 语法
    10. 9. Vue 计算属性的setter和getter 以及 计算属性的缓存讲解
    4. Spring MVC 数据响应方式
    3. SpringMVC 组件解析
    9. Vue 计算属性
    【洛谷 2984】给巧克力
    【洛谷 1821】捉迷藏 Hide and Seek
    【洛谷 1821】银牛派对Silver Cow Party
  • 原文地址:https://www.cnblogs.com/netcorner/p/2912036.html
Copyright © 2011-2022 走看看