让 Googlebot 抓取更多网站内容的 3 种方法

谷歌的加里-伊利耶斯(Gary Illyes)和利兹-萨斯曼(Lizzi Sassman)讨论了引发 Googlebot 爬行增加的三个因素。虽然他们淡化了持续抓取的必要性,但也承认有一些方法可以鼓励 Googlebot 重新访问网站。

1.高质量内容对抓取频率的影响

他们谈到的问题之一是网站的质量。很多人都遇到过网站未被收录的问题,这有时是由于人们学会了某些搜索引擎优化方法,并认为这些方法是好的。我从事搜索引擎优化工作已经 15 年了,有一点始终不变,那就是业界定义的最佳实践一般都比 Google 的做法晚好几年。然而,如果一个人坚信自己所做的一切都是正确的,那么他就很难发现问题所在。

Gary Illyes 在 4 分 42 秒处分享了抓取频率提高的原因,他解释说,抓取频率高的触发因素之一是谷歌算法检测到的高质量信号。

Gary 在 4 分 42 秒时说过:

“…generally if the content of a site is of high quality and it’s helpful and people like it in general, then Googlebot–well, Google–tends to crawl more from that site…”

上述说法有很多细微差别,比如,什么是高质量和有用的信号,会让谷歌决定更频繁地抓取?

谷歌从来不说。但我们可以猜测,以下是我的一些推测。

我们知道,有一些关于品牌搜索的专利将用户进行的品牌搜索算作隐含链接。有些人认为 “隐含链接 “就是品牌提及,但 “品牌提及 “绝对不是专利中所说的内容。

还有自 2004 年起就存在的 Navboost 专利。有些人将 Navboost 专利等同于点击率,但如果你阅读 2004 年的实际专利,就会发现其中从未提及点击率(CTR)。它说的是用户交互信号。点击率是 2000 年代初的一个热门研究课题,但如果你阅读研究论文和专利,就不难理解我所说的 “猴子点击 SERPs 中的网站,谷歌将其排名靠前,猴子得到香蕉 “是什么意思了。

一般来说,我认为那些表明人们认为网站有帮助的信号,可以帮助网站获得更好的排名。有时,这可能是给人们他们期望看到的东西,给人们他们期望看到的东西。

网站所有者会告诉我,谷歌的排名是垃圾,当我看了一眼,我就明白了他们的意思,这些网站有点垃圾。但另一方面,这些内容却能满足人们的需求,因为他们并不知道如何区分他们希望看到的内容和真正优质的内容(我称之为 “Froot Loops”算法)。

什么是 Froot Loops 算法?它是谷歌依赖用户满意度信号来判断其搜索结果是否让用户满意的结果。以下是我之前发表的有关谷歌 Froot Loops 算法的内容:

“Ever walk down a supermarket cereal aisle and note how many sugar-laden kinds of cereal line the shelves? That’s user satisfaction in action. People expect to see sugar bomb cereals in their cereal aisle and supermarkets satisfy that user intent.

I often look at the Froot Loops on the cereal aisle and think, “Who eats that stuff?” Apparently, a lot of people do, that’s why the box is on the supermarket shelf – because people expect to see it there.

Google is doing the same thing as the supermarket. Google is showing the results that are most likely to satisfy users, just like that cereal aisle.”

一个让用户满意的垃圾网站的例子是一个流行的食谱网站(我就不点名了),它发布的简易烹饪食谱都是不正宗的,使用的都是捷径,比如把奶油蘑菇汤从罐子里拿出来作为配料。我在厨房里相当有经验,这些食谱让我感到恶心。但我认识的人都喜欢那个网站,因为他们真的不知道更好的,他们只是想要一个简单的食谱。

所谓 “有用性”,其实就是要了解网络受众,给他们想要的东西,这与给他们应该想要的东西是不同的。在我看来,了解人们的需求并提供给他们,才会让搜索者觉得有帮助,才会让谷歌发出 “有帮助 “的信号。

2.出版活动增加

Illyes 和 Sassman 说,另一个可能触发 Googlebot 抓取更多内容的因素是发布频率的增加,比如一个网站突然增加了发布网页的数量。但 Illyes 是在黑客网站突然开始发布更多网页的情况下这么说的。被黑客攻击的网站如果发布大量网页,就会导致 Googlebot 抓取更多网页。

如果我们把视角放大,从 Sassman 的角度来审视这句话,就会发现他在暗示,发布活动的增加可能会引发抓取活动的增加。并不是网站被黑客攻击导致 Googlebot 抓取次数增加,而是发布量增加导致的。

Gary 在这里提到,发布活动的爆发是 Googlebot 的触发因素:

“…but it can also mean that, I don’t know, the site was hacked. And then there’s a bunch of new URLs that Googlebot gets excited about, and then it goes out and then it’s crawling like crazy.”

大量的新页面会让 Googlebot 感到兴奋,并 “疯狂 “地抓取网站,这就是其中的启示。无需赘述,我们继续。

3.内容质量的一致性

Gary Illyes 继续提到,谷歌可能会重新考虑网站的整体质量,这可能会导致抓取频率下降。

Gary 是这么说的:

“…if we are not crawling much or we are gradually slowing down with crawling, that might be a sign of low-quality content or that we rethought the quality of the site.”

Gary 说谷歌 “重新考虑了网站质量”,这是什么意思?我的看法是,有时如果网站的某些部分没有达到原来网站的质量标准,网站的整体质量就会下降。在我看来,根据我多年来所看到的情况,在某些时候,低质量的内容可能会开始超过好的内容,并拖累网站的其他部分。

当有人来找我说他们有 “content cannibalism”的问题时,我一看,他们真正受苦的是网站另一部分的低质量内容问题。

利兹-萨斯曼(Lizzi Sassman)在 6 分钟左右继续提问,如果网站内容是静态的,既没有改善也没有变差,只是没有变化,是否会有影响。Gary 没有回答,只是说 Googlebot 会返回检查网站是否有变化,并说如果没有变化,可能 Googlebot 会放慢爬行速度,但他表示不知道。有一点没有说出来,但却与内容质量的一致性有关,那就是有时话题会发生变化,如果内容一成不变,那么它可能会自动失去相关性,并开始失去排名。因此,定期进行内容审核是个好主意,看看主题是否发生了变化,如果发生了变化,就更新内容,以便在用户、读者和消费者就某一主题进行对话时,继续保持内容的相关性。

改善与 Googlebot 关系的三种方法

正如 Gary 和 Lizzi 所明确指出的,这并不是为了让 Googlebot 抓取而去戳它,让它过来。关键是要考虑你的内容及其与用户的关系。

1.内容质量高吗?
内容是针对主题还是针对关键词?在我看来,使用基于关键词的内容策略的网站会在 2024 年的核心算法更新中受到影响。基于主题的策略往往能产生更好的内容,并顺利通过算法更新。

2.出版活动增加
发布活动的增加会让 Googlebot 更频繁地出现。不管是因为网站被黑客攻击,还是因为网站在内容发布策略上投入了更多精力,有规律的内容发布计划都是一件好事,而且一直都是好事。在内容发布方面,没有 “定了就忘 “一说。

3.内容质量的一致性
随着时间的推移,内容质量、时事性和与用户的相关性是一个重要的考虑因素,这将确保 Googlebot 会继续前来打招呼。其中任何一个因素(质量、主题性和相关性)的下降都会影响到 Googlelebot 的抓取,而抓取本身就是更重要因素的表现,即 Google 算法本身如何看待内容。

微信扫一扫 或 点击链接联系我