Das Crawling einer Webseite ist die Voraussetzung für die Indexierung von Webseiten und somit ein wichtige Optimierungsmaßnahme für die SUCHMASCHINENOPTIMIERUNG. Die Google Search Console bieten mit dem Bericht Crawling die Möglichkeit, dass Crawling zu überwachen und zu steuern.

Crawling Fehler ausfindig machen

Im Bericht „Crawling Fehler“ werden zwischen Websitefehlern und URL Fehlern unterschieden. Websitefehler betreffen die gesamte Webseite und URL Fehler beziehen sich auf eine spezielle URL.

Als URL-Fehlermeldung werden am häufigsten 404 Fehler angezeigt. Ein 404 Fehler liegt vor, wenn eine Seite nicht verfügbar ist. Eine Seite ist zum Beispiel dann nicht mehr verfügbar, wenn eine bestehende URL gelöscht wurde oder ein Link auf eine nicht vorhandene URL gesetzt wurde. 404 Fehlerseiten werden nicht indexiert. Da Verlinkungen zu 404 Fehlerseiten keine Linkpower vererben, sollte überprüft werden, ob 301 Weiterleitungen notwendig sind.

google-search-console-url-fehler
Screenshot Google Search Console: 404 Fehler

Wurde der 404 Fehler behoben oder ist eine Behebung nicht notwendig, kann dieser in der Google Search Console als korrigiert markiert werden. Der 404 Fehler wird dadurch aus dem Bericht „Crawling Fehler“ entfernt.

Auch als korrigiert markierte 404 Fehler werden von Google nach einiger Zeit wieder gecrawlt. Daher können diese URLs wieder in der Google Search Console als 404 Fehler auftauchen, wenn weiterhin ein 404 Fehler vorliegt. Google crawlt in bestimmten Zeitabständen 404 Fehlerseiten, um zu prüfen, ob die 404 Fehlerseite aufrufbar ist und somit in den Index gelangen kann.

Crawling Statistiken – Der Überblick

Im Bericht Crawling-Statistiken werden die Googlebot-Aktivitäten der letzten 90 Tage in Form von

  • Pro Tag gecrawlte Seiten
  • Pro Tag heruntergeladene Kilobyte
  • Dauer des Herunterladens einer Seite (in Millisekunden)

angezeigt. Die Crawling Frequenz ist kein Ranking-Signal und hat keine Auswirkungen auf den Traffic einer Webseite. Die maximale Crawl-Frequenz wird durch die Geschwindigkeit des Servers und durch die Anzahl der Servererrors, die der Crawler beim crawlen erhält, bestimmt. Eine stark gesunkene oder gestiegene Crawling Frequenz kann auf Probleme hindeuten.

google-search-console-crawling-statistiken
Screenshot Google Search Console: Pro Tag gecrawlte Seiten

Crawling Frequenz ist gesunken

Eine stark gesunkene Crawling Frequenz kann folgende Ursachen haben:

  • In der robots.txt wurden neue Regeln hinzugefügt, die das Crawling von Seiten blockieren
  • Server ist überlastet oder die Fehlerquote ist angestiegen
  • Maximale Crawling-Frequenz wurde in der Google Search Console gesenkt
  • Inhalte auf der Seite werden nicht regelmäßig aktualisiert oder die Seite besitzt keine hohe Qualität

Crawling Frequenz ist gestiegen

Werden viele neue Seiten veröffentlicht und/oder ranken viele Seiten die sehr beliebt sind, kann die Crawling Frequenz in ungewolltem Ausmaß steigen. Sollte der Eindruck entstehen, dass der Server überlastet ist, kann die Crawling Frequenz durch folgende Maßnahmen reduziert werden:

  • In der robots.txt-Datei Seiten blockieren, die nicht aufgerufen werden sollen
  • Crawling-Frequenz in der Search Console anpassen. Dies ist jedoch keine langfristige Lösung, da Google nicht erfährt, welche Seiten gecrawlt werden sollen und welche nicht
  • Seiten mit unendlichen Ergebnissen wie zum Beispiel Suchseiten vom Crawling ausschließen. Entweder durch Anweisung in robots.txt oder durch NoFollow-Tags.

Crawling überprüfen und URLs schnell indexieren

Im Bericht „Abruf wie durch Google“ wird dargestellt, wie der Googlebot die Webseite sieht. Dadurch kann geprüft werden, ob der Crawler Ihre Webseite vollständig crawlen kann. Kann die Webseite nicht vollständig abgebildet werden, sind meist Ressourcen wie beispielsweise CSS-Dateien blockiert. Die blockierten Ressourcen werden in der Google Search Console aufgelistet.

google-search-console-abruf-wie-durch-google
Screenshot Google Search Console: Abruf wie durch Google

Des Weitern können für URLs die Indexierung beantragt werden, indem der Crawler angefordert wird. Dies ist praktisch, wenn Anpassungen an der Seite durchgeführt wurden, oder eine neue Seite schnell in den Google Index gelangen soll. Das Crawling der Seite erfolgt wenige Minuten nach der Beantragung der Indexierung.

google-search-console-indexierung-beantragen
Screenshot Google Search Console: Indexierung beantragen – Einrichtungsmethode auswählen

Beim Antrag der Indexierung kann ausgewählt werden, ob nur die einzelne URL gecrawlt werden soll oder die URL mir ihren direkten Links.

Monatliches Crawling-Budget

  • Crawling von einzelnen URLs: Maximal 500 einzelne URLs können pro Monat eingereicht werden.
  • Crawling von URL und ihren direkten Links: Maximal 10 URLs können pro Monat eingereicht werden

Robots.txt mit den Robots.txt Tester auf Fehler prüfen

Der Robots.txt Tester untersucht die vorhandene robots.txt und gibt Fehler und Warnmeldungen an. Außerdem können einzelne URLs getestet werden, ob diese von den robots.txt Anweisungen blockiert oder zugelassen werden. Dies macht vor allem dann Sinn, wenn in der robots.txt sehr viele Anweisungen vorhanden sind.

google-search-console-robots-txt-tester

google-search-console-robots-txt-zugelassen
Screenshot Google Search Console: URL in robots.txt testen

Sitemaps einreichen und testen

Eine Sitemap kann das Crawling einer Seite unterstützen, dies gilt vor allem für Websiten mit vielen URLs. Im Bericht Sitemap können Sitemaps hinzugefügt und getestet werden. Folgende Obergrenzen pro eingereichter Sitemap müssen eingehalten werden:

  • 10 MB (unkomprimiert)
  • 50.000 URLs

Werden diese Obergrenzen überschritten, können die Sitemaps aufgeteilt werden.

Neben dem hinzufügen können die Sitemaps auf Fehler getestet werden. Fehler sind z.B. Leere Sitemap, URLs zur Sitemap nicht zugänglich und ungültige Datumsangaben.

URL-Parameter festlegen

URL-Parameter werden am Ende der URL mit einem Fragezeichen (?) eingefügt. Sie entstehen vor allem bei Filtern, wie zum Beispiel bei Preisfiltern oder Farbfiltern. Ein Beispiel für einen URL Parameter wäre ?sale=true in folgender URL:

https://www.beispiel-domain.de/herrenbekleidung-kleider/?sale=true

Parameter URLs können Duplicate Content verursachen. Google clustert dann die doppelt vorhandenen Seiten und wählt die URL, die das Cluster am Besten repräsentiert. Nicht immer gelingt es Google die passende URL auszuwählen. Im Bericht URL-Parameter können Parameter entsprechend konfiguriert werden, um Google zusätzliche Informationen zu geben.

Fazit – Vielfältige Anwendungsmöglichkeiten um den Crawler zu steuern und zu prüfen

Das Crawling einer Webseite lässt sich durch verschiedene Maßnahmen prüfen und steuern. Bereits als korrigiert markierte 404 Fehler erscheinen nach einem bestimmten Zeitabstand wieder in der Google Search Console. Dies ist kein Grund zur Sorge, denn selbst korrigierte 404 Fehler werden in bestimmten Zeitabständen von Google überprüft.

Für einzelne URLs kann die Indexierung beschleunigt werden. Dies ist vor allem bei Änderungen und neuen Seiten sehr nützlich. Die Crawl-Frequenz, Sitemap, robots.txt und das Abrufen wie durch Google bieten weitere Überprüfungen des Crawlings.

Über den Autor
Christoph Elgeti
Über den Autor

Christoph Elgeti ist SEO-Manager bei clicks digital.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert