为什么搜索引擎只抓取一个固定页面? - 蝙蝠侠IT
蝙蝠侠IT
SEO专家:专注SEO十五年,关注网络营销推广与新媒体运营 -> 个人微信号:batmanseo
文章1766 浏览10607849

为什么搜索引擎只抓取一个固定页面?

如果你是一名SEO从业者在做SEO项目的时候,我们经常会做的一件事情就是查看网站日志,偶尔我们会遇到这样的情况:  

搜索引擎的爬虫,每天都只是固定爬行一个页面,而不抓取站内其他的任何页面,这让SEO从业者非常头疼,很难长期持续运营。  

为什么搜索引擎只抓取一个固定页面?

那么,为什么搜索引擎只抓取一个固定页面?  

根据以往对百度蜘蛛的研究,蝙蝠侠IT,将通过如下内容阐述:  

1、页面内容更新  

通常来讲,如果你是一个新站,在网站建设初期的时候,首页通常是一个长期被反复抓取的一个页面,在这个过程中,你几乎每天都会看到蜘蛛只爬行首页,甚至你的索引也只是一条直线。  

通常来讲,如果你是新站刚上线,我们认为这个情况是可以理解,你可能需要在整站持续性的输出内容,并且频繁的在首页展现。  

搜索蜘蛛才可能有较高的概率去爬行相关性内容。  

2、页面可访问性  

这是一个老生常谈的情况,我们认为页面可访问性,应该从两个角度去讨论:  

①页面的加载速度  

②页面的robots协议  

如果你的经常被抓取之外的页面打开速率非常高,我们认为相对于快速访问的页面,其他页面很难得到搜索友好性,本身网站如果没有权重的话,很容易被少抓取。  

当然,如果你错误的配置了robots协议,在某种程度上,其他相关页面也是很难得到抓取的,比如:错误的屏蔽了首页之外的页面。  

3、内部链接少  

这是一个相对特殊的情况,有的时候我们总是会在企业站内内部建立一些高质量的页面,类似于专题单页,在某种程度上,我们希望这个页面获得较高的搜索排名。  

而不对站内任何页面进行权重的传递,而采用了nofollow策略,屏蔽了页面中所有的链接。  

基于这个策略,在某种程度上也会导致其他页面抓取不到的情况。  

4、页面质量低  

有的时候,我们在做网站内容更新的时候,为了快速的让网站看着充实,偶尔会采集与组合一些低质量的内容,进行页面填充。  

这就导致搜索引擎在早期爬行目录的时候,基于大量低质量内容评估的策略,而认定某个目录下面的内容,没有搜索价值,从而导致基本不抓取该目录任何内容。  

有的时候,即使你从新调整该目录下的内容质量,可能也无济于事。  

5、网站非备案  

从目前来看,在国内非备案网站,在国内各大搜索引擎中的表现,都不是特别的理想,长期出现搜索引擎只抓取一个页面的情况非常普遍。  

并且这样的网站收录是异常困难的,通常来讲,如果你的内容不是足够优质,外部链接资源不是足够的优质,很难得到有效的信任度。  

那么,长期只抓取一个页面是在正常不过的事情。  

6、页面目录层级  

在SEO诊断的工作中,我们经常会遇到这样的情况,网站看起来没有任何问题,并且企业已经备案,页面加载速度也不错,可在长期运营的过程中,站内页面总是很难被蜘蛛抓取。  

出现这样的情况,我们通常都会去检查站内的一些目录层级,如果你的优质内容页目录层级非常深的话,比如:达到4-5级,对于新网站而言,是很难被搜索引擎发现,这就会导致蜘蛛长期的固定抓取一个页面的情况。  

7、页面提交渠道  

在早期的SEO工作中,我们知道如果你的页面质量不错,并且保持较高的输出频率,通常搜索引擎都会主动的去访问,但随着信息内容增量的快速发展。  

搜索引擎往往在抓取页面的时候,会设定一些级别顺序,比如:优先抓取与审查哪些渠道而来的链接。  

这其中页面提交的渠道就显得格外重要,特别是API的百度网址提交。  

总结:搜索引擎长期只抓取一个固定页面,仍然有诸多细节需要讨论,而上述内容,仅供参考!

蝙蝠侠IT https://www.batmanit.com/p/1599.html 转载需授权!

最后编辑于:2021/08/24作者: 流量君

蝙蝠侠IT·站长:微信号 batmanseo