网站内容被重复收录的原因解析

在观察网站的收录时,发现有个网站的收录一直持续增加,到后来网站的收录量浮动很大,仔细分析了一下,发现发布一篇文章,百度就会收录很多条,导致后来的被删,这样对网站的seo优化很是不利啊,seo博客就在想:这是为什么捏?

通过对url的对比发现,重复收录的url大部分都是一些评论。站在SEO的角度来看,如果一个页面老是被重复收录然后删除,再有了新评论之后继续收录和删除的话,对蜘蛛来说不但增加了工作量之外,也会是蜘蛛觉得厌烦,到最后影响网站优化,甚至会导致网站被K的严重后果。

那么针对这种文章被重复收录有什么解决方法呢?之前我们知道了被收录和删除的都是评论,而评论的重复收录和删除对网站的SEO工作可以说事有害无益的,那么我们能做的就是直接将评论收录扼杀在摇篮中,这样连收录都没有了何况删除。

拒绝收录的最好办法就是拒绝搜索引擎蜘蛛的爬行,应用robots.txt文件设置。需要注意的是咱们这里只需要拒绝对评论的爬行,所以在设置robots.txt文件的时候,加入“Disallow: /*?replytocom=”一项即可。接下来我们可以观察一段时间看看效果。

发表评论

:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen: