您好,欢迎来到中国博客联盟!这里只收录优秀独立博客,纯手工审核机制!
点此可加入QQ群交流建站心得!中国博客联盟QQ交流群快速加群按钮  中国博客联盟QQ交流群快速加群按钮 / 登录 / 注册 / 找回密码
当前位置:中国博客联盟 » 站长资讯 » 建站技巧 » 文章详细

百度搜索SEO学习:巧用robots避免蜘蛛黑洞的方法

来源:百度站长平台 浏览:1626次 时间:2014-10-17

对于百度搜索引擎来说,蜘蛛黑洞特指网站通过极低的成本制造出大量参数过多,及内容雷同但具体参数不同的动态URL ,就像一个无限循环的“黑洞”将spider困住,Baiduspider浪费了大量资源抓取的却是无效网页。
       比
如很多网站都有筛选功能,通过筛选功能产生的网页经常会被搜索引擎大量抓取,而这其中很大一部分检索价值不高,如“500-1000之间价格的租房”,首先网站(包括现实中)上基本没有相关资源,其次站内用户和搜索引擎用户都没有这种检索习惯。这种网页被搜索引擎大量抓取,只能是占用网站宝贵的抓取配额。那么该如何避免这种情况呢?
       
我们以北京某团购网站为例,看看该网站是如何利用robots巧妙避免这种蜘蛛黑洞的:

对于普通的筛选结果页,该网站选择使用静态链接,如:http://bj.XXXXX.com/category/zizhucan/weigongcun
       同样是条件筛选结果页,当用户选择不同排序条件后,会生成带有不同参数的动态链接,而且即使是同一种排序条件(如:都是按销量降序排列),生成的参数也都是不同的。如:http://bj.XXXXX.com/category/zizhucan/weigongcun/hot?mtt=1.index%2Fpoi.0.0.i1afqhek
http://bj.XXXXX.com/category/zizhucan/weigongcun/hot?mtt=1.index%2Fpoi.0.0.i1afqi5c

 对于该团购网来说,只让搜索引擎抓取筛选结果页就可以了,而各种带参数的结果排序页面则通过robots规则拒绝提供给搜索引擎。
       
robots.txt的文件用法中有这样一条规则:Disallow: /*?* ,即禁止搜索引擎访问网站中所有的动态页面。该网站恰是通过这种方式,对Baiduspider优先展示高质量页面、屏蔽了低质量页面,为Baiduspider提供了更友好的网站结构,避免了黑洞的形成。



推荐博客

  • 悠游客悠游客

    分享与旅游有关的趣闻

    rusmt.net
  • 钧言の博客钧言の博客

    钧言博客XIAOJUN.ORG是一家乐享资源记忆点滴的博客 主要分享程序源码 站长工具 网络技术 技术文章,系统运维 活动分享等 记录生活 分享点滴 热爱折腾

    www.xiaojun.org
  • 云际Colaue's Blog云际Colaue's Blog

    本站作为全球第一家以分享社工技术为主的网站,完全出于站长兴趣爱好、此博客用于分享社工案例,为的是提高公 民的社会工程学攻击防范意识。所有技术类文章除特别说明外均为本站原创,本站所有资源均为学习、交流使用,不 得用于任何商业用途。若由于研究学习本站文章件而带来的损失,本站不负任何责任。 如果本站有文章违

    www.colaue.top
  • 超级学长超级学长

    超级学长资源网是一个专注于网络资源开发和共享加建站教程、源码下载、WordPress主题、网站开发交流、程序软件下载、建站资源、多媒体交流、电影资源、Android软件分享为一体的多互动交流平台。

    www.98qcw.cn
  • 白开水博客白开水博客

    为小白提供免费教程。愿每一个小白将来都会成为大佬祝你梦想成真!

    baikais.cn
×
图标按钮