• Robots协议的写法


    Robots协议的写法
    既然网络爬虫在爬取一个网站之前,要先获取到这个文件,然后解析到其中的规则,那么,Robots就必须要有一套通用的语法规则。

    最简单的robots.txt只有两条规则:

    User-agent:指定对哪些爬虫生效

    Disallow:指定要屏蔽的网址

    先说User-agent,爬虫抓取时会声明自己的身份,这就是User-agent,没错,就是http协议里的User-agent。robots.txt利用User-agent来区分各个引擎的爬虫,比如说google网页搜索爬虫的User-agent为Googlebot。

    可能有读者要问了,我怎么知道爬虫的User-agent是什么?你还可以查相关搜索引擎的资料得到官方的数据,比如说百度的爬虫列表是这样的:

    Disallow 行列出的是要拦截的网页,以正斜线 (/) 开头,可以列出特定的网址或模式。要屏蔽整个网站,使用正斜线即可;要屏蔽某一目录以及其中的所有内容,在目录名后添加正斜线;要屏蔽某个具体的网页,就指出这个网页。

    下面我们来看一些Robots的具体写法:

    允许所有的robot访问

    User-agent: *
    Disallow:
    或者也可以建一个空文件 "/robots.txt" file。

    禁止爬虫访问所有目录

    User-agent: *
    Disallow: /
    禁止爬虫访问某些目录

    User-agent: *
    Disallow: /a/
    Disallow: /b/
    Disallow: /c/
    禁止某些爬虫访问

    User-agent: BadBot
    Disallow: /
    只允许某个爬虫访问

    User-agent: MangCrawler
    Disallow:
    User-agent: *
    Disallow: /
    我们再来结合两个真实的范例来学习一下。先看这个例子:

    User-agent: Baiduspider
    Disallow: /
    User-agent: baiduspider
    Disallow: /
    这个是淘宝网的Robots协议内容,相信你已经看出来了,淘宝网禁止百度的爬虫访问。

    再来看一个例子:

    User-agent: *
    Disallow: /?*
    Disallow: /pop/*.html
    User-agent: EtaoSpider
    Disallow: /

  • 相关阅读:
    IT公司笔试题(一)
    select与poll函数介绍
    ps命令介绍
    strace命令介绍(转)
    STREAMS流机制
    记录锁
    spingboot启动报驱动Loading class `com.mysql.jdbc.Driver'. This is deprecated. The new driver class is `com.mysql.cj.jdbc.Driver'. The driver is automatically registered via the SPI and manual loading of th
    list通过lambda 表达式去重,筛选
    Idea查看一个类和子类(实现类)的结构图
    Redis主从配置
  • 原文地址:https://www.cnblogs.com/walkersss/p/14765779.html
Copyright © 2020-2023  润新知