Das Crawl-Budget entschlüsselt: Bedeutung und Optimierung für Webseitenbetreiber

February 26, 2024

Seit Jahren beschäftigen Suchmaschinenoptimierer die Fragen: Was ist ein Crawl-Budget? Warum ist es wichtig? Und wie kann es optimiert werden? Diese Fragen sind besonders relevant für Betreiber von großen Websites mit tausenden oder gar Millionen von Seiten. Aber auch kleinere Sites können von einem besseren Verständnis und einer effizienteren Steuerung des Crawl-Budgets profitieren. Grundlegend beschreibt das Crawl-Budget die Anzahl der URLs, die Google in einem bestimmten Zeitraum auf einer Webseite crawlt und indexiert. Es setzt sich aus zwei Hauptkomponenten zusammen: dem Crawl-Limit und der Crawl-Nachfrage. Das Crawl-Limit bezieht sich auf die Kapazität und Geschwindigkeit des Servers, auf dem die Webseite gehostet wird. Es definiert, wie viele Anfragen Googlebot stellen kann, ohne den Server zu überlasten. Die Crawl-Nachfrage hingegen wird durch die Häufigkeit der Aktualisierungen auf einer Seite und deren Relevanz bestimmt. Häufig aktualisierte und populäre Seiten haben eine höhere Crawl-Nachfrage. Die Frage des Crawl-Budgets ist für Betreiber großer Websites besonders wichtig, da sie sicherstellen müssen, dass Googlebot die relevantesten und aktuellsten Seiten crawlt. Dies gewährleistet, dass ihre Inhalte aktuell bleiben und schnell in den Suchergebnissen erscheinen. Doch auch kleinere Websites können von einem optimierten Crawl-Budget profitieren, da dies die Sichtbarkeit ihrer Inhalte verbessern kann. Ein Aspekt, der oft übersehen wird, wenn es um das Crawl-Budget geht, ist die Ladegeschwindigkeit einer Website. Eine schneller ladende Website ermöglicht es Google, mehr URLs in derselben Zeit zu crawlen. Barry Adams, ein SEO-Experte, berichtet von einem Fall, in dem eine Website nach einer Geschwindigkeitsoptimierung eine vierfache Steigerung der täglich von Google gecrawlten URLs erlebte. Dies führte dazu, dass neue und geänderte Inhalte schneller gecrawlt wurden und die SEO-Bemühungen schneller Wirkung zeigten. Eine häufige Herausforderung für Website-Betreiber besteht darin, dass Ressourcen für das Crawlen von URLs verschwendet werden, die nicht für die Indexierung bestimmt sind, wie beispielsweise Duplicate Content oder Seiten, die mittels robots.txt-Anweisungen vom Crawling ausgeschlossen wurden. Die Optimierung des Crawl-Budgets kann dazu beitragen, dieses Problem zu minimieren, indem sichergestellt wird, dass Googlebot die wichtigsten Teile einer Website crawlt. In diesem Zusammenhang erklärte John Mueller von Google, dass das Crawl-Budget hauptsächlich für sehr große Websites eine Rolle spielt. Kleinere bis mittelgroße Websites hätten in der Regel keine Probleme mit dem Crawl-Budget, es sei denn, die Seiten bieten wenig Mehrwert oder werden technisch schlecht verwaltet. Mueller betont, dass technische Aspekte wie Servergesundheit und die Optimierung von Inhalten entscheidend sein können, um zu bestimmen, welche Seiten Google crawlt. Ein Nutzer auf Reddit stellte eine Frage zu einer geringen Crawl-Rate für Seiten, die mit einem 301-Redirect auf eine 410-Fehlermeldung umleiten. Mueller antwortete, dass eine Kombination aus 301 und 410 in Ordnung sei und das Crawl-Budget wahrscheinlich nicht das Problem sei. Wenn Googlebot bestimmte Seiten nicht crawlt, könnte dies darauf hinweisen, dass Google diesen Seiten keinen Wert beimisst. Ein weiterer Aspekt, der diskutiert wurde, ist das sogenannte "facettierte Browsing", bei dem durch Filterprozesse viele ähnliche Kategorieseiten entstehen können, die potenziell das Crawl-Budget beeinflussen. Experten raten dazu, solche Seiten, die keinen Mehrwert für die Suche bieten, mittels robots.txt vom Crawling auszuschließen. Es ist wichtig zu beachten, dass laut Google die einzigen Wege, das Crawl-Budget zu erhöhen, darin bestehen, die Kapazität für Crawls zu erhöhen und vor allem den Wert der Inhalte auf der Website für Suchende zu steigern. Zusammenfassend lässt sich sagen, dass das Crawl-Budget ein komplexes Thema ist, das eine strategische Herangehensweise erfordert. Website-Betreiber müssen verstehen, wie Googlebot ihre Seiten crawlt und indexiert, und sollten Maßnahmen ergreifen, um sicherzustellen, dass ihre wichtigsten Inhalte priorisiert werden. Durch die Optimierung des Crawl-Budgets können sie die Sichtbarkeit ihrer Website in Suchmaschinen verbessern und so den organischen Verkehr steigern.