当前位置:沐风博客 / SEO问答 / 正文

为什么蜘蛛总是重复抓取相同的页面

发布时间:2021年02月08日 08:41:57 | 责任编辑 : 沐风 | 分类 : SEO问答 | 浏览: 3715次 | 评论 0

问题:为什么蜘蛛总是重复抓取相同的页面?

回答:蜘蛛抓取是有规律的,也有着自己的规则,如果蜘蛛不断重复的抓取某个页面,那就表示该页面更新的频率较高。当然如果网站权重很高,那么蜘蛛抓取的频率也会高很多,也可能会出现频繁重复抓取相同页面的情况。

沐风SEO还是建议大家多去理解下搜索引擎工作原理,理解蜘蛛抓取的规律是什么样的,这有好处!

这里有个比较特殊的情况,沐风SEO曾经跟某个网站做SEO诊断,也遇到了蜘蛛频繁反复抓取某个页面的情况。经过分析发现,这个页面是程序自动生成的,它不是前端页面,而是数据库类型的文件。网站每次更新内容,这个页面上都会进行相应的更新,所以这个动态页面就形成了网站地图一样的文件,所以蜘蛛抓取就很频繁。

另外对于有参数的动态页面(不是以.html结尾的那种伪静态页面),也可能会出现被蜘蛛反复抓取的情况。

但不管是怎样的情况,我们只需要知道页面更新的频率会极大的影响到蜘蛛抓取,同时也影响到快照更新。下面以沐风工作室网站为例做下简单的介绍,请看图:

百度搜索一周内收录截图.jpg

这是沐风工作室网站一周内收录的数据,可以看到有15页面的记录,也就是有近150个页面的百度快照得到了更新。而在这些页面当中,仅仅有几篇文章是新加的,其他的都是之前的老页面。

那么问题来了,为什么有这么多的老页面得到快照更新呢?曾经有朋友问沐风SEO,问是不是有几个编辑专门做网站更新,事实上并非如此,我们网站上的内容基本都是沐风SEO自己更新的,每天就是1-3篇文章左右,当然这些都是原创文章

问题在于,我们在文章页面设置随机调用的内容模板,页面每次被打开都会随机调用10篇文章。不管是普通用户还是蜘蛛爬行,页面都会随机调用内容,并且我们还设置了最新的时间戳。这对于搜索引擎来说,页面随时都在更新,正是这个小的SEO技巧,让百度快照得到了快速更新。

我们再回到问题上来,为什么蜘蛛总是重复抓取相同的页面?前面的这些文字应该能够解释清楚了吧!大家可以去自查下,看看这些被重复抓取的页面有着怎样的特殊情况。

但是要注意,请大家务必搞清楚是否是真正的蜘蛛,而不是某些模拟的蜘蛛。比如说如果网站经常被其他网站采集的话,那么就可能会出现很多的假蜘蛛,因为这些采集软件使用的就是类似搜索引擎蜘蛛的假蜘蛛。

然后要从这个问题中发现可以操作的时候地方,比如说通过某些SEO方法,让蜘蛛更加有针对性的抓取,让页面的快照信息等到更快的更新等等。总之我们要从这些现象中去发现问题、解决问题,甚至得出有利于网站优化的隐藏信息。


本站内容大部分由沐风博客原创,少部分内容来源于网络,如有侵权请与我们联系,我们会及时删除!

扩展阅读