• 网站禁止网络搜索引擎的抓取三种方法


    一般情况下,网站建立并运营之后总是希望被搜索引擎收录的数量越多越好。但这只是通常情况下,大部分人所希望的。有些时候,我们还是会希望搜索引擎蜘蛛不要访问网站的某些文件夹,当然也有不希望搜索引擎收录的页面。
    比如说,网站刚刚建立并没有真正投入运营,还没有实质性的内容时;还有过多的收录页面导致网站权重的分散,而恰恰你想要聚拢权重到某些个最重要的页面时;再比如建立一个镜像网站,并主要通过其他的推广手段(这里指除了SEO以外的推广方法)对网站进行运营时……
    而搜索引擎收录网站页面是需要通过蜘蛛访问网站,并对页面内容进行抓取。所以通常情况下,想要阻止搜索引擎的收录就需要限制、屏蔽蜘蛛的访问与抓取。下面笔者介绍几种常用的屏蔽蜘蛛抓取的方法。

    1.robots.txt规则文件。(简单概括: 创建文件robots.txt 放到你项目的跟目录下(也就是你网站的根目录, 80端口访问的html页面目录) , 然后你的访问 你的 域名 + robots.txt 能访问到就可以了)

    大家都知道robots.txt是指引搜索引擎蜘蛛对该网站访问与否的规则,平时运用的也比较多。一般的建议是不论网站是否有需要屏蔽收录的内容,都要在根目录下建立robots.txt文件。
    robots.txt文件规则的写法很简单,比如需要屏蔽某一个搜索引擎的蜘蛛访问所有目录,就这样写:  

    User-agent:Googlebot
    Disallow:/
    再比如禁止所有蜘蛛访问、抓取某一个目录则:
    User-agent:*
    Disallow:/admin/

    生成robots.tst文件工具 http://tool.chinaz.com/robots/

    2.robots Meta标签。

    如果说robots.txt是一个放在网站中的规则文件,那robots Meta就是放在某个网页中的标签。两者的实际功能是大致相同的,但robots.txt是大部分搜索引擎都支持的方式,而后者却是大部分搜索引擎都不支持的。另外相比较下,robots Meta用来对某几个页面单独设置时使用。
    robots Meta标签必须存放在“<head>…</head>”代码之内:

    <head><meta name=”robots” content=”index,follow” />
    </head>
    
    其中“index”指的是索引,“follow”指的是跟踪链接并传递相应的权重。当然相应的还有“noindex”和“nofollow”,功能则正好相反。

    3.服务器配置文件。

    这种方法是最不常见的屏蔽蜘蛛的方法,主要用于屏蔽那些“不恪守”robots.txt规则的蜘蛛。
    方法就是一段时间的分析网站日志,发现需要屏蔽的蜘蛛以及它的ip。然后通过服务器的配置文件将其屏蔽,从而实现屏蔽某一个蜘蛛抓取网站。当然这种方法运用起来并不灵活,比如不能屏蔽蜘蛛单独对某一个文件夹(或网页)的抓取。
    因服务器及其系统的不同,具体还请参见相关设置方法。

    除以上提到的三种屏蔽蜘蛛抓取的方法以外,应该是有其他的方法可以达到屏蔽蜘蛛抓取的目的,欢迎各位高手在闲暇之时予以补充。
    但就以上三种方法而言,第一种robots.txt规则文件的运用更为广泛。

  • 相关阅读:
    无题
    1.1tensorflow2.0 张量
    某某大肠_tidb_集群创建用户
    某某大肠_替换TiDB 3.0集群的tidb-server命令工具
    某某大肠_配置spark的thriftserver模块
    date_and_time
    SpringBoot整合Mybatis
    SpringBoot(3)Thymeleaf使用详解
    SpringBoot(2)实现CRUD
    SpringBoot(1)入门篇
  • 原文地址:https://www.cnblogs.com/yu-hailong/p/8416786.html
Copyright © 2020-2023  润新知