• 转载robots.txt的学习


    转载原地址: http://www.monring.com/seo/aspdotseo-robot.html

    在国内,robots.txt文件,对于用户来说他是个可有可无的东西,也不会有人去看。但对于搜索引擎来讲它却是一个非常强大的东西,它可以说是你网站目录的“看护神”,可以用它来允许和禁止搜索引擎的搜录,下面我们就做一下详细讨论

    robots.txt基本介绍

    robots.txt是一个纯文本文件,在这个文件中网站管理者可以声明该网站中不想被robots访问的部分,或者指定搜索引擎只收录指定的内容。

    当一个搜索机器人(有的叫搜索蜘蛛)访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,那么搜索机器人就沿着链接抓取。

    另外,robots.txt必须放置在一个站点的根目录下,而且文件名必须全部小写。比如:http://www.cnblogs.com/robots.txt

    robots.txt写作语法

    首先,我们来看一个robots.txt范例:http://www.monring.com/robots.txt
    访问以上具体地址,我们可以看到robots.txt的具体内容如下:

    # Robots.txt file from http://www.monring.com
    # All robots will spider the domain

    User-agent: *
    Disallow:

    以上文本表达的意思是允许所有的搜索机器人访问www.monring.com站点下的所有文件。

    具体语法分析:其中#后面文字为说明信息;User-agent:后面为搜索机器人的名称,后面如果是*,则泛指所有的搜索机器人;Disallow:后面为不允许访问的文件目录。

    下面,我将列举一些robots.txt的具体用法:
    允许所有的robot访问

    User-agent: *
    Disallow:

    或者也可以建一个空文件 "/robots.txt" file

    禁止所有搜索引擎访问网站的任何部分
    User-agent: *
    Disallow: /

    禁止所有搜索引擎访问网站的几个部分(下例中的admin、user、files目录)
    User-agent: *
    Disallow: /admin/
    Disallow: /user/
    Disallow: /files/

    禁止某个搜索引擎的访问(下例中的Baiduspider)
    User-agent: Baiduspider
    Disallow: /

    常见的搜索引擎机器人名称
    搜索机器人名称 URL
    Baiduspider http://www.baidu.com
    Scooter http://www.altavista.com
    ia_archiver http://www.alexa.com
    Googlebot http://www.google.com
    Inktomi Slurp http://www.yahoo.com
    FAST-WebCrawler http://www.alltheweb.com
    Slurp http://www.inktomi.com
    MSNbot http://search.msn.com

    只允许某个搜索引擎的访问(下例中的Baiduspider)
    User-agent: Baiduspider
    Disallow:

    User-agent: *
    Disallow: /

    另外,robots也可以在meta标签内进行设置,下面来一些介绍:
    Robots META标签则主要是针对一个个具体的页面。和其他的META标签(如使用的语言、页面的描述、关键词等)一样,Robots META标签也是放在页面的<head></head>中,专门用来告诉搜索引擎ROBOTS如何抓取该页的内容。

    Robots META标签的写法:
    Robots META标签中没有大小写之分,name=”Robots”表示所有的搜索引擎,可以针对某个具体搜索引擎写为name=”BaiduSpider”。 content部分有四个指令选项:index、noindex、follow、nofollow,指令间以“,”分隔。

    INDEX 指令告诉搜索机器人抓取该页面;
    FOLLOW 指令表示搜索机器人可以沿着该页面上的链接继续抓取下去;
    Robots Meta标签的缺省值是INDEX和FOLLOW,只有inktomi除外,对于它,缺省值是INDEX,NOFOLLOW。

    这样,一共有四种组合:
    <META NAME="ROBOTS" CONTENT="INDEX,FOLLOW">
    <META NAME="ROBOTS" CONTENT="NOINDEX,FOLLOW">
    <META NAME="ROBOTS" CONTENT="INDEX,NOFOLLOW">
    <META NAME="ROBOTS" CONTENT="NOINDEX,NOFOLLOW">

    其中
    <META NAME="ROBOTS" CONTENT="INDEX,FOLLOW">可以写成<META NAME="ROBOTS" CONTENT="ALL">;
    <META NAME="ROBOTS" CONTENT="NOINDEX,NOFOLLOW">可以写成<META NAME="ROBOTS" CONTENT="NONE">

    目前看来,绝大多数的搜索引擎机器人都遵守robots.txt的规则,而对于Robots META标签,目前支持的并不多,但是正在逐渐增加,如著名搜索引擎GOOGLE就完全支持,而且GOOGLE还增加了一个指令“archive”,可以限制GOOGLE是否保留网页快照。例如:
    <META NAME="googlebot" CONTENT="index,follow,noarchive">
    表示抓取该站点中页面并沿着页面中链接抓取,但是不在GOOLGE上保留该页面的网页快照。

    上面做了些简单的介绍,我们做网站时一定要加一个robots.txt在跟目录下,搜索引擎找到你网站后第一步就会找你的robots.txt看他是否有权限抓取。

    PS:小经验分享
    1. 当你的程序防护措施不是很好的时候在robots.txt里面禁止搜索引擎搜录你的后台地址。
    2. 当你的网站是公司内部使用的web系统的时候不妨禁止所有搜索引擎访问来避免不需要的麻烦。
    3.当你的网站刚刚架设起来,而可能会对网站架构有改动的时候,不妨暂时禁止所有搜索引擎搜录,让搜索引擎憋上一段时间。当你网站稳定后再把禁止取消,这时候你的网站会有一个更好的搜录效果。

  • 相关阅读:
    多重背包 HDU2191
    带限制求最小价值的完全背包 HDU1114
    均分背包 HDU1171
    经典01背包问题 HDU2602
    记忆化搜索 POJ1579
    最大递增子序列变形——二维带权值 O(n*n) HDU1069
    最大递增子序列变形——二维 O(n*logn) TOJ4701
    OCJP(1Z0-851) 模拟题分析(六)over
    OCJP(1Z0-851) 模拟题分析(八)over
    OCJP(1Z0-851) 模拟题分析(九)over
  • 原文地址:https://www.cnblogs.com/wphl-27/p/5930109.html
Copyright © 2020-2023  润新知