• 不用baidu,不用google,你有bing啊


       搜索引擎我们每天都要使用,有人说用百度好,有人说用google好,前不久微软也推出了搜索引擎“必应”,于是就出现了标题“不用baidu,不用google,你有bing啊”这个网络流行语。

     

      可是各位童鞋,你考虑过它们之间的差异吗?你知道为什么学生群体大多用百度,而白领们或者企业人群用谷歌?你知道为什么查新闻,找娱乐信息使用百度的效果要好,而找技术性的东西用谷歌要好呢?你知道我们这些编程人员为什么都几乎都用谷歌呢?

     

      这要从搜索引擎收录网页、排序搜索结果页的脾性不同说起了。一个新网站正式提交给搜索引擎后,一般情况下谷歌可以在第二天收录网站首页,而百度的却要等大概两个星期左右,这是不做任何手段“处理”的情况下的自然结果。其实百度的收录并没有那么晚,当你发现半个月后网站才被百度收录,是因为那天百度才把你的首页“放出来”,如果你查看服务器访问日志就会发现在N天之前百度的爬虫就已经在你的网站上面爬了N遍了。只不过是百度有一套严密的审核机制:它先大量索引网站的页面,然后在后台慢慢的审核,然后才一页一页的放出来。当然大站和小站,新站和老站享受的待遇是不同的,例如我在新浪发表的博客只需十分钟就能在百度上搜索到。然而几年前百度是却是先疯狂的收录(不是指索引),然后再审核“拔羊毛”,现在正式收录之前的审核比重加大了好多,也说明了百度的收录策略在向着好的方向改进。不过对于新站小站来说过于苛刻了,不如谷歌来的友好。现在网站的搜索引擎收录量普遍谷歌要大于百度。

     

      总的来说百度搜索的爬虫要比谷歌的机器人勤劳的多,百度通常对一个网站索引(未必会收录)很频繁,但是审核严格,最主要的就是喜欢原创的内容,现在的采集站是很难被百度收录的,这已不是百度几年前疯狂收录的年代了。频繁到什么程度,即使一个新站、小站也会天天光顾,像新浪博客这种更新频繁、权重高、原创质量高的站更是几分钟就要爬一次。

     

      谷歌对于原创的审核就没有百度那么严格了,但是谷歌注重权重,就是PR值,从0到10分为11个级别。新站被收录后就是0级,不同级别的网站享受的待遇就不同,虽然根据权重判断网页的重要性确有道理,但上有政策下有对策,看看各个站长群里买连接的兄弟就知道怎么回事了。三个月把PR为0的网站提高到4是易常随意的事,我就这样干过,买了10个5级6级的黑链,挂了2个月,才花了100块钱,当然有钱的话还是买正规的连接,要被谷歌判为作弊就完了。PR提高到4的好处是以后再跟高PR的网站交换友情链接已经没有什么障碍了。但是这有个弊端,越老的站PR就越高,即使他的质量很差,很久没有更新。但它的权重高,在搜索结果里排名也越靠前。谷歌可能也意识到这个问题,所以也就出现了好多网站降PR的事,不过也是杯水车薪,于事无补。

     

     总体来说就是百度喜欢更新快的原创性高的网站,谷歌是喜欢权重高的站,这就造成了找新的信息如新闻、娱乐类的百度要好于谷歌。谷歌呢?权重大的都是大站,老站,有积累有沉淀的才能在搜索结果页上排名靠前,这正适合技术类的,和企业类的信息。这也就是为什么在新站上做关键词,百度见效快,谷歌见效慢的原因。

      最后再八卦一下,谷歌因为能够搜索到黄色信息昨天晚上在焦点访谈被曝光了。

  • 相关阅读:
    .net core 获取程序中文件路径
    关于autofac的一些具体的用法
    Ztree节点增加删除修改和Icheck的用法
    C# 多线程之Task(任务
    C#开启异步 线程的四种方式
    c# thread数线程的创建
    图片转二进制 ,
    循环中如果有某一次循环抛出异常了整个循环就停止的解决办法
    JAVA 8 Optional的使用
    react 获取指定表单对象中的对象的值
  • 原文地址:https://www.cnblogs.com/zhushaohua95/p/1507374.html
Copyright © 2020-2023  润新知