• 如何使用robots禁止各大搜索引擎爬虫爬取网站


    如何使用robots禁止各大搜索引擎爬虫爬取网站

    一、总结

    一句话总结:假如此网站禁止爬虫抓取,那么,只要在网站的根目录下,创建一个robots.txt文件

    User-agent: *
    Disallow: /
    就可以了..

    1、搜索引擎在爬取网站前会做什么?

    一般来说搜索引擎爬取网站时都会,先读取下robots.txt文件,并依照里面所设定的规则去爬取网站(当然是指没用登录限制的页面)

    2、robots.txt文件的内容和结构是怎样的?

        1).robots.txt文件必须是放在文件根目录上:
          例如:

            ├─admin

            │  └─templates

            │          header.tpl.php

            │          task_add.tpl.php

            │   └─robots.txt

         2 ) .首先常用的命令为

            User-agent : 可以具体制定User-agent适用,即搜索引擎的名字,如果为 * 的话则为通配

            Disallow : 可以设定档案或文件夹,不允许被爬虫爬取,且为 / 时禁止爬取整站 ,也可以指定文件路径,不可爬取

            Crawl-delay: 延时爬取,防止爬虫短时间内爬取网站过快导致网站崩溃,则可以设置该延时

            Allow : 允许爬取指定页面, 为 / 时爬取整站

        3) 搜索引擎别称

            Googlebot 谷歌

             Baiduspider 百度

            等等

    3、搜索引擎的好处和坏处是什么?

    不好的地方会增加网站的访问负荷;有时,还会涉及到用户的隐私;

    好的地方也是增加了访问流量;

    4、一般彻底防止爬虫用什么方法?

    如果需要防止的话,就需要监测网站,把一些不良网络爬虫的给堵止掉,一般是封IP。

    robots.txt只能防止有品的爬虫来爬

    二、如何使用robots禁止各大搜索引擎爬虫爬取网站

    ps:由于公司网站配置的测试环境被百度爬虫抓取,干扰了线上正常环境的使用,刚好看到每次搜索淘宝时,都会有一句由于robots.txt文件存在限制指令无法提供内容描述,于是便去学习了一波

       1.原来一般来说搜索引擎爬取网站时都会,先读取下robots.txt文件,并依照里面所设定的规则去爬取网站(当然是指没用登录限制的页面)

        2.下面我们就来说一说如何设置robots.txt文件

        1).robots.txt文件必须是放在文件根目录上:
          例如:

            ├─admin

            │  └─templates

            │          header.tpl.php

            │          task_add.tpl.php

            │   └─robots.txt

         2 ) .首先常用的命令为

            User-agent : 可以具体制定User-agent适用,即搜索引擎的名字,如果为 * 的话则为通配

            Disallow : 可以设定档案或文件夹,不允许被爬虫爬取,且为 / 时禁止爬取整站 ,也可以指定文件路径,不可爬取

            Crawl-delay: 延时爬取,防止爬虫短时间内爬取网站过快导致网站崩溃,则可以设置该延时

            Allow : 允许爬取指定页面, 为 / 时爬取整站

        3) 搜索引擎别称

            Googlebot 谷歌

             Baiduspider 百度

            等等

      类似我们测试环境就设置了

     

        User-agent : / 所有搜索引擎

        Disallow : / 禁止整站

     

    参考:如何使用robots禁止各大搜索引擎爬虫爬取网站 - link_xjxj - 博客园
    https://www.cnblogs.com/jjq-exchange/p/9549989.html

     

            

     

    三、网站肉容如何避免被百度google爬虫抓取

    什么是网络爬虫?
    网络爬虫是一个自动提取网页的程序,它为搜索引擎从万维网上下载网页,是搜索引擎的重要组成。传统爬虫从一个或若干初始网页的URL开始,获得初始网页上的URL,在抓取网页的过程中,不断从当前页面上抽取新的URL放入队列,直到满足系统的一定停止条件。

     

    爬虫有好处也有坏处:

    威胁主要是流量方面,包括爬虫的访问以及搜索引擎被使用带来的实际用户访问。

    对网站有好有坏,

    不好的地方会增加网站的访问负荷;有时,还会涉及到用户的隐私;

    好的地方也是增加了访问流量;

    如果搜索引擎收录了你的网站,你的网站的流量会增加,也就是有更多的用户访问量。

    你想让更多用户知道的话,就允许网络爬虫,如果需要防止的话,就需要监测网站,把一些不良网络爬虫的给堵止掉,一般是封IP。 正常情况下,在网站的目录下放一个robots.txt的文件,里面可以声明禁止爬虫来爬,做为一个有品的爬虫程序,就不去爬了,当然没品的不在此列。
    如何来配置一个robots.txt文件?

    其实是比较简单的,
    User-agent: * 表示所有的爬虫,即对所有的爬虫都有作用;
    Allow: 表示允许爬虫访问,抓取的内容
    Disallow: 禁止爬虫抓取的内容

    假如此网站禁止爬虫抓取,那么,只要在网站的根目录下,创建一个robots.txt文件
    User-agent: *
    Disallow: /
    就可以了..

    关于爬虫的文章:
    http://www.javaeye.com/topic/718874
    http://robbin.javaeye.com/blog/451014

    参考:网站肉容如何避免被百度google爬虫抓取 - CSDN博客
    https://blog.csdn.net/wqdwin/article/details/47164889
     
     
     
  • 相关阅读:
    Codeforces Round #371 (Div. 1)
    Making the Grade(POJ3666)
    The trip(Uva 11100)
    Codeforces Round #370 (Div. 2) E. Memory and Casinos (数学&&概率&&线段树)
    [CodeForces
    勾股数组 学习笔记
    NOIP 2015 游记
    BestCoder Round #53 (div.1)
    北大信息学夏令营 游记
    Codeforces Round #313 (Div. 1)
  • 原文地址:https://www.cnblogs.com/Renyi-Fan/p/9711711.html
Copyright © 2020-2023  润新知