新网站不收录的主要有哪些原因
1、检查iis日志。通过iis日志的检查,可以很清楚的了解蜘蛛的行踪,它有没有来我们的网站以及什么时候来的,还有来的频繁程度如何。如果蜘蛛没有来,那网站自然是不会收录。
2、检查通道。如果说蜘蛛是正常的来到你的网站,那么你首先要看的就是你的robots.txt文件,看看是不是因为自己在修改robots的时候不小心,把原本需要正常收录的页面给禁止了,亦或者是不是因为自己禁止的页面把需要收录的页面的唯一入口或者主要入口也禁止了。关于robots文件还要注意的是不要频繁的修改,因为每一次你的修改都会让蜘蛛重新的考虑,哪些页面是要的,哪些页面是不去抓取的,修改的频繁蜘蛛也是很讨厌的;此外你还要检查的是,你的网站页面的各个入口是不是正常
3、检查页面。要是蜘蛛来了,而且你的robots也和以前一样没有大的变动,结构和页面的入口也都没有什么大的变化,那问题就一定是上面的几种原因中的一种了。最主要还是文章页,你需要考虑自己的文章的质量,是不是采集的过多了?是不是文章的原创性不够等等,还有要检查自己的文章是不是被他人采集过多了(这点很多人都没有检查的习惯),文章被他人采集过多,如果你的权重不及采集你文章的网站,或许你会让百度看来你的站是采集站,特别是当你的文章被不同的站频繁采集的时候;至于其他的页面,你要看看是不是自己在新增页面的时候,内容过于相似,标题是不是有重复等等,这些蜘蛛都不喜欢
1、如果检查iis日志的时候,发现蜘蛛没有来,那么你的网站很可能在被降权中,你要去检查友链;查看你服务器的状态,是不是返回404、503状态过多,是不是有很多页面无法访问;还有,不要去刷流量,这也是导致降权的很主要的原因
2、如果问题是处在robots.txt当中,这到好办,只需要重新的正确的修改它,要记得考虑页面之间的联系,不要禁止了A页面严重的影响到了B页面
3、如果问题在于页面,那么你要做的是增加文章的原创性。过多的采集会被百度认为是垃圾站,过多的被别人采集也会被百度认为是垃圾站。要做好检查的工作,特别要注意的是,小心被人用机器采集,现在由于有很多类似火车头的采集工具可以帮助很多站长减少不少工作量,但是如果你的站被这类机器采集,会是很郁闷的事情,可以在页面上做一些限制,比如:把p、div、span 这些代码进行互换等