在为网站启用二级域名如果是以子目录的方式时请务必在Robots.txt里设置对搜索引擎抓取的限制.
在主域名的基础上启用的二级域名.而且二级域名是跟主站根目录下的子目录”baike”文件夹绑定的.这样一来在SEO中就会产生搜索引擎重复收录的问题,因为存在这个相同的内容形如: http://baike.ourseo.net/ 和http://www.ourseo.net/baike/ 是完全一样的内容.当然,我们都不希望搜索引擎会在两个地方看到一模一样的东西,其实,搜索引擎是最讨厌重复内容的.所以,一定要想办法搞定这个问题.
其实很简单,只要在你的网站根目录下的Robots.txt文件里简单的增添一条内容就可以了.具体操作如下:
打开根目录下的Robots.txt文件.按照你的实际情况来进行设置.
如上所述,二级域名是绑定的根目录下的”baike”文件夹.则,需要进行如下设置
User-agent: *
Disallow: /baike/
如果你为网站启用了多个二级域名,则相应的设置多个二级目录的禁止抓取就可以了.
没太懂,我用二级目录做了个论坛,是需要把二级的ROBTS一起写到根目录的,而在二级的删掉吗?
一般可以绑定在自己的一级域名下
一般有一级域名的美人愿意用二级
哇你写的很不错哦,顶你一下
f73bf85ed很好的文章,先拜读一下a7
做SEO就应该深入了解
Robots.txt这个文件中的写法
禁止收录及 301重定向都在这里面搞定
恩 每天收获一点 坚持哦~~ 无天~
很好的文章,先拜读一下7e
leeau 潮流 男装 女装 鞋品 诚招网络销售代理;低价 优质路线;免费提供全部高清产品照片,不添加水印标志) 卖家可以自由销售;
板凳是我的哈
写得不错,收藏了
f9写得不错,收藏了
这样会不会导致二级域名也禁止了 搜索引擎呢。我个人认为这种方法可行,但网上很多人说这样二级域名会关闭了
我说把,这样是不太好
如果不这样的话,,,那也没其他办法了吧、、、?