首页 > 搜索优化 > 网站二级域名绑定子目录时的Robots.txt文件设置
2011七月13

网站二级域名绑定子目录时的Robots.txt文件设置

2011-07-13 10:29 | 作者:无天 | 分类:搜索优化 | 浏览: 6082 Views 14评论 发表评论

在为网站启用二级域名如果是以子目录的方式时请务必在Robots.txt里设置对搜索引擎抓取的限制.

在主域名的基础上启用的二级域名.而且二级域名是跟主站根目录下的子目录”baike”文件夹绑定的.这样一来在SEO中就会产生搜索引擎重复收录的问题,因为存在这个相同的内容形如: http://baike.ourseo.net/ 和http://www.ourseo.net/baike/ 是完全一样的内容.当然,我们都不希望搜索引擎会在两个地方看到一模一样的东西,其实,搜索引擎是最讨厌重复内容的.所以,一定要想办法搞定这个问题.

其实很简单,只要在你的网站根目录下的Robots.txt文件里简单的增添一条内容就可以了.具体操作如下:

打开根目录下的Robots.txt文件.按照你的实际情况来进行设置.

如上所述,二级域名是绑定的根目录下的”baike”文件夹.则,需要进行如下设置

User-agent: *

Disallow: /baike/

如果你为网站启用了多个二级域名,则相应的设置多个二级目录的禁止抓取就可以了.

除非注明,文章均为无天博客原创,转载请以链接形式注明出处,谢谢。
本文地址:http://www.wutiansem.com/20110713475.html
标签:

14 Responses to “网站二级域名绑定子目录时的Robots.txt文件设置”

  1. #1 义乌小商品批发网 回复 | 引用 Post:2012-02-27 12:26

    没太懂,我用二级目录做了个论坛,是需要把二级的ROBTS一起写到根目录的,而在二级的删掉吗?

  2. #2 电压互感器 回复 | 引用 Post:2011-07-22 18:49

    一般可以绑定在自己的一级域名下

  3. #3 美人梅 回复 | 引用 Post:2011-07-22 18:39

    一般有一级域名的美人愿意用二级

  4. 哇你写的很不错哦,顶你一下

  5. f73bf85ed很好的文章,先拜读一下a7

  6. #6 唐宗磊 回复 | 引用 Post:2011-07-13 21:53

    SEO就应该深入了解
    Robots.txt这个文件中的写法

    禁止收录及 301重定向都在这里面搞定

    恩 每天收获一点 坚持哦~~ 无天~

  7. #7 机械工程师之家7e 回复 | 引用 Post:2011-07-13 21:34

    很好的文章,先拜读一下7e

  8. leeau 潮流 男装 女装 鞋品 诚招网络销售代理;低价 优质路线;免费提供全部高清产品照片,不添加水印标志) 卖家可以自由销售;

  9. #9 www.073856.com 回复 | 引用 Post:2011-07-13 20:07

    板凳是我的哈

  10. 写得不错,收藏了

  11. f9写得不错,收藏了

    • #12 烧烤机 回复 | 引用 Post:2011-11-03 10:36

      这样会不会导致二级域名也禁止了 搜索引擎呢。我个人认为这种方法可行,但网上很多人说这样二级域名会关闭了

  12. #13 淘宝网女装 回复 | 引用 Post:2011-07-13 10:30

    我说把,这样是不太好

    • #14 Pearl 回复 | 引用 Post:2011-11-28 14:23

      如果不这样的话,,,那也没其他办法了吧、、、?

发表评论