• 关于SEO优化方案


    < DOCTYPE html PUBLIC -WCDTD XHTML TransitionalEN httpwwwworgTRxhtmlDTDxhtml-transitionaldtd>

    1.title标签网站标题

          一般格式:文章名 – 分类名 – 网站名
          如果太长的话,就只要文章名 – 网站名

           搜索引擎只考虑标题标签中有限的字数,比如说前十到前十五个字。所以很长的充满关键词的title tag,只能使你的网站看起来更像垃圾。

    2.meta标签

           标题标签不要超过十到十二个字。描述标签也不要超过三十到三十五个字。关键词标签只要列出确实和你的网站有关的重要关键词
            在这所有的三个标签里,都切忌重复和堆砌关键词。meta不要每个页面都千篇一律。

    3.URL中的关键词

          对英文网页来说,关键词出现在URL中,多少会有点帮助。对搜索引擎相关性算法的帮助可能很小,但其实对用户帮助蛮大的。因为搜索结果列在搜索引擎中时,用户可以从你的文件名就判断出这个网页是讨论什么的。
           关键词可以在域名里,也可以在目录名里,也可以是文件名,不过切忌关键词堆砌在URL中。

    4.文章长度有利于SEO

          首先,文章最短也应该在200字左右以上。原因有两个:
          1)如果只有几十个字,搜索引擎不容易判断出文字的主题是什么,也就判断不出与什么关键词最相关。
           2)正文太短的话,有可能比导航系统,菜单,版权声明等杂七杂八的东西加起来的字数还少,被怀疑是复制内容。如果这样的文字过少的页面大量存在,可能造成网站内部复制网页增多。因为你的网页之间相似性太高,有区别的文字太短。
          长文章容易吸引链接。看过很多很长的文章,甚至长到几十页。虽然读的时候拉来拉去有点儿不方便,但这样的文章其实是比较容易吸引链接的。

    5.robots.txt使用

          robots.txt是搜索引擎中访问网站的时候要查看的第一个文件。Robots.txt文件告诉蜘蛛程序在服务器上什么文件是可以被查看的。
           语法:最简单的 robots.txt 文件使用两条规则:
            User-Agent: 适用下列规则的漫游器
           Disallow: 要拦截的网页

      1. 每当用户试图访问某个不存在的URL时,服务器都会在日志中记录404错误(无法找到文件)。每当搜索蜘蛛来寻找并不存在的robots.txt文件时,服务器也将在日志中记录一条404错误,所以你应该在网站中添加一个robots.txt。
      2. 网站管理员必须使蜘蛛程序远离某些服务器上的目录——保证服务器性能。比如:大多数网站服务器都有程序储存在“cgi-bin”目录下,因此在robots.txt文件中加入“Disallow: /cgi-bin”是个好主意,这样能够避免将所有程序文件被蜘蛛索引,可以节省服务器资源。一般网站中不需要蜘蛛抓取的文件有:后台管理文件、程序脚本、附件、数据库文件、编码文件、样式表文件、模板文件、导航图片和背景图片等等。
        User-agent:
      该项的值用于描述搜索引擎robot的名字。在"robots.txt"文件中,如果有多条User-agent记录说明有多个robot会受到"robots.txt"的限制,对该文件来说,至少要有一条User-agent记录。如果该项的值设为*,则对任何robot均有效,在"robots.txt"文件中,"User-agent:*"这样的记录只能有一条。如果在"robots.txt"文件中,加入"User-agent:SomeBot"和若干Disallow、Allow行,那么名为"SomeBot"只受到"User-agent:SomeBot"后面的Disallow和Allow行的限制。
      Disallow:
      该项的值用于描述不希望被访问的一组URL,这个值可以是一条完整的路径,也可以是路径的非空前缀,以Disallow项的值开头的URL不会被robot访问。例如"Disallow:/help"禁止robot访问/help.html、/helpabc.html、/help/index.html,而"Disallow:/help/"则允许robot访问/help.html、/helpabc.html,不能访问/help/index.html。"Disallow:"说明允许robot访问该网站的所有url,在"/robots.txt"文件中,至少要有一条Disallow记录。如果"/robots.txt"不存在或者为空文件,则对于所有的搜索引擎robot,该网站都是开放的。
      Allow:
      该项的值用于描述希望被访问的一组URL,与Disallow项相似,这个值可以是一条完整的路径,也可以是路径的前缀,以Allow项的值开头的URL是允许robot访问的。例如"Allow:/hibaidu"允许robot访问/hibaidu.htm、/hibaiducom.html、/hibaidu/com.html。一个网站的所有URL默认是Allow的,所以Allow通常与Disallow搭配使用,实现允许访问一部分网页同时禁止访问其它所有URL的功能。
      需要特别注意的是Disallow与Allow行的顺序是有意义的,robot会根据第一个匹配成功的Allow或Disallow行确定是否访问某个URL。
      使用"*"和"$":
      Baiduspider支持使用通配符"*"和"$"来模糊匹配url。
      "$" 匹配行结束符。
      "*" 匹配0或多个任意字符。

    6.建立sitemap站点地图

          XML地图可以让搜索引擎更迅速地了解你站点的更新。Google和yahoo都已经使用sitemap xml地图加速收录服务了。

  • 相关阅读:
    谷歌浏览器内核自带长截图
    js文件导入swiper方法及分页器不显示原因
    Error: Cannot find module 'gifsicle'问题解决
    新型横向移动工具原理分析、代码分析、优缺点以及检测方案
    武汉解封一周年
    JAVA线程池ThreadPoolExecutor的分析和使用(新手踩坑和推荐方案)
    JAVA常量池
    Java String的intern()注意事项(分JDK1.6及JDK1.7)
    JAVA的类加载过程
    react hooks方法获取不到最新的state解决方法
  • 原文地址:https://www.cnblogs.com/netcorner/p/2912036.html
Copyright © 2020-2023  润新知