SEO: Was ihr über Googles Crawl-Budget wissen müsst

Google saust stetig durchs Netz, um Webseiten zu crawlen (= zu erfassen). Dabei beachtet der Suchmaschinenriese nicht alle Seiten ähnlich aufmerksam. Hier lest ihr, was das für euch als Website-Betreiber bedeutet.


SEO: Was ist Googles Crawl-Budget?
(Search Engine Optimization unter CC0 1.0)

Googlebot heißt das Programm, mit dem Google Webseiten crawlt. "Bot" ist dabei die Kurzform für "Robot". Drei Schritte sind nötig, bis eine Webseite in den Google-Trefferlisten erscheint:
  1. Crawling: Der Googlebot erfasst die Seiten (engl. to crawl = kriechen, krabbeln [über eine Webseite]).
  2. Indexierung: Google nimmt die Seiten in seinen Bestand auf.
  3. Ranking: Google bringt die Seiten in den Trefferlisten algorithmisch in eine Reihenfolge.

Heißt: Das Crawling eurer Seiten ist die Grundvoraussetzung dafür, dass sie überhaupt bei Google auffindbar sind. Das Crawl-Budget definiert dabei, wie viele eurer URLs der Googlebot crawlen kann und will. Es berechnet sich aus der Crawl-Rate und dem Crawl-Bedarf.

So berechnet Google die Crawl-Rate

Google möchte mit seinen Crawling-Aktivitäten haushalten und sich dabei auf wichtige und hochwertige Inhalte konzentrieren. Deshalb arbeitet es mit einer sogenannten Crawl-Rate. Sie beschäftigt sich mit den folgenden technischen Fragen:

➧ Wie viele parallele Verbindungen soll der Googlebot maximal verwenden, um eine Webseite zu crawlen?

➧ Und wie viel Zeit soll zwischen den Abrufen vergehen?

Die Begrenzung dieser Crawl-Rate (= Crawl-Rate-Limit) kann schwanken: Reagiert eure Website schnell, erweitert sich das Limit. Der Googlebot kann mehr Verbindungen nutzen, um sie zu crawlen. Reagiert eure Site langsam oder mit Server-Fehlern, beschränkt sich das Limit und der Googlebot crawlt weniger und seltener.

So stuft Google den Crawl-Bedarf eurer Website ein

➧ Popularität: Je beliebter eine URL (= Web-Adresse) bei den Usern ist, desto öfter wird Google sie crawlen, um die jeweils "frischeste" Version zu indexieren.

➧ Veraltete Inhalte: Google möchte keine überholten Inhalte in seinem Index haben. Entsprechend wenig beachtet es solche Seiten beim Crawlen.

➧ Auch größere Ereignisse wie Website-Umzüge können den Crawl-Bedarf erhöhen, da Google die bekannten Inhalte unter den neu entstandenen URLs re-indexieren will.


Der Googlebot crawlt Webseiten.
Der Googlebot saust durchs Web (CC0 1.0)

Rate + Bedarf = Budget

Das Crawl-Budget definiert, wie viele eurer URLs der Googlebot crawlen kann (Crawl-Rate) und crawlen will (Crawl-Bedarf).

Heißt in der Praxis: Je weniger hochwertige Webseiten euer Online-Auftritt bietet und je langsamer diese laden, desto unmotivierter wird der Googlebot sein, sie zu crawlen.

Was heißt das für eure Website?

Euer Online-Auftritt hat keine Tausende Seiten? Dann könnt ihr laut Google dem Thema Crawl-Budget gelassen begegnen: Eure Seiten sollten problemlos und effizient gecrawlt werden. Sollte euer Web-Auftritt jedoch deutlich größer ein, solltet ihr das Thema Crawl-Budget stärker beachten.

Egal wie groß oder klein eure Website ist, ihr solltet in jedem Fall regelmäßig die Crawling-Infos in der Google Search Console checken:


Die Crawling-Informationen in der Google Search Console.

Zusätzliche Tipps:

➧ Mittels robots.txt könnt ihr das Crawl-Budget beeinflussen.

➧ Eine XML-Sitemap erleichtert es dem Googlebot, eure Seiten zu crawlen.

➧ Je schneller die Ladezeiten eurer Website, desto freudiger wird der Googlebot sie crawlen.


Quelle & Link-Tipp:

Kommentare

Hier bloggt Mathias Sauermann:

NEWSLETTER:

Erhalte die besten Beiträge meines Blogs >gratis und freibleibend!

Vernetze dich mit mir auf LinkedIn Xing FacebookInstagram.

Weitere spannende Beiträge dieses Blogs findest du in den Rubriken:
Online-Marketing-Tipps
Digitalisierung

Meinung!
Onliner-Allerlei


Titelbild: Digital Art unter CC0 1.0