• Zürich, Erfurt, Berlin & Heilbronn

  • SEO & SEA seit 2008
    15-köpfiges Team

Google Search Console Abdeckung | Problem | Indexierung | Gecrawlt zurzeit nicht indexiert | Alternative Seite mit richtigem kanonischen Tag

Google Search Console Abdeckung - Indexierung & Probleme im Überblick (inkl. Lösung)

Johannes Böttner
17.01.2023
Inhaltsverzeichnis

Bei der Google Search Console (kurz: GSC), die ehemals auch als Google Webmaster Tools bezeichnet wurde, handelt es sich um ein kostenfreies Google-Tool zur Analyse und Optimierung von Websites. Die GSC kommt vor allem im Rahmen der Suchmaschinenoptimierung zum Einsatz und gibt Webmastern zahlreiche Empfehlungen zur Optimierung einer Website. Darüber hinaus erhalten Nutzer Warnungen bei Problemen, welche beispielsweise die Indexierung, Backlinks oder mobile Nutzerfreundlichkeit betreffen. In diesem Beitrag erhalten Sie einen genauen Überblick über verschiedene Fehlermeldungen im Abdeckungsbericht der GSC und deren Bedeutung. Darüber hinaus zeigen wir Ihnen mögliche Lösungswege auf. Auf Fehlermeldungen in den Bereichen “Nutzerfreundlichkeit”, “Verbesserungen” etc. wird an dieser Stelle nicht genauer eingegangen.

 

Um die Google Search Console nutzen zu können, muss die jeweilige Seite zunächst einmal angemeldet werden. Hierfür benötigen Sie ein gültiges Google-Konto. Eine genaue Anleitung zum Einrichten Ihrer GSC erhalten Sie in unserem Blogbeitrag.

 

Google Search Console Index Abdeckungsbericht

Im Index Abdeckungsbericht der Google Search Console (im GSC-Menü links unter “Seiten”) werden alle indexierten und nicht-indexierten URLs gelistet:

 

Übersicht aller indexierten und nicht-indexierten Seiten im Abdeckungsbericht der GSC
Übersicht aller indexierten und nicht-indexierten Seiten im Abdeckungsbericht der GSC. (Quelle: Google Search Console)

 

Indexiert bedeutet, dass die Seiten grundsätzlich in der Google-Suche ausgegeben werden. Nicht-indexierte URLs sind demnach aus den Google Suchergebnissen ausgeschlossen. Gründe für die Nicht-Indexierung werden wie hier als Fehlermeldungen angegeben:

 

Übersicht Gründe für die Nicht-Indexierung von Seiten
Übersicht über die Gründe für die Nicht-Indexierung von Seiten. (Quelle: Google Search Console)

 

Über die Unterscheidung in “Indexiert” und “Nicht Indexiert” hinaus, lassen sich die URLs auch nach mit der Sitemap eingereichten (“Alle eingereichten Seiten”) und nicht eingereichten (“Nur nicht eingereichte Seiten”) Seiten filtern:

 

Filter im Abdeckungsbericht der GSC
Filter „Alle bekannten Seiten”, „Alle eingereichten Seiten“ und „Nur nicht eingereichte Seiten“ im Abdeckungsbericht. (Quelle: Google Search Console)

 

Diese Informationen geben zum einen Auskunft darüber, wie gut oder schlecht gepflegt eine Sitemap ist. Zum anderen lassen sich wichtige Handlungsempfehlungen für die Optimierung der Sitemap ableiten. Bei der Sitemap handelt es sich um eine maschinenlesbare URL-Liste (in der Regel XML-Datei) für Suchmaschinen. Sie dient Websitebetreibern dazu, Indexierung und Crawling einer Website zu steuern. Mit der Sitemap signalisiert man Google, welche URLs einer Website besonders wichtig sind und entsprechend indexiert werden sollen.

 

Sind Abdeckungsfehler in der Google Search Console problematisch?

Ob eine Fehlermeldung im Abdeckungsbericht der Google Search Console tatsächlich problematisch ist, lässt sich nicht pauschal beantworten. Grundsätzlich lohnt es sich hier aber, immer erst einmal einen kühlen Kopf zu bewahren und nicht in Panik zu verfallen. Viele Fehlermeldungen sind verhältnismässig harmlos. Dennoch sollten Sie den Abdeckungsbericht regelmässig checken und entsprechende Missstände vor allem auf lange Sicht beheben.

Die aufgeführten Fehlermeldungen geben Hinweise auf Optimierungspotenziale hinsichtlich der Qualität einer Website. Umso höher diese ist, desto einfacher lassen sich Struktur und Inhalte von Crawlern (Software-Programme, die das Internet durchsuchen) erfassen. Dies wirkt sich wiederum positiv auf die Sichtbarkeit in Suchmaschinen aus. Ein weiterer Vorteil ist die Übersichtlichkeit. So lassen sich gerade schwerwiegende Probleme (beispielsweise die Nicht-Indexierung wichtiger Seiten) deutlich schneller erkennen und beheben. Die Search Console Daten von Webseiten mit geringer Qualität sind voll von unterschiedlichen Fehlermeldungen. Gerade unerfahrene GSC-Nutzer übersehen in der Folge häufig grössere Probleme mit Handlungsbedarf und stürzen sich stattdessen auf unerhebliche Fehlermeldungen, die sich kaum oder gar nicht auf die Google-Rankings auswirken.

 

Google Search Console Abdeckung – Probleme / Fehlermeldungen und Ihre Lösungen

Damit Sie genau wissen, was es mit den verschiedenen Fehlerbezeichnungen im Abdeckungsbericht auf sich hat, stellen wir Ihnen nachfolgend alle wichtigen Fehlermeldungen der Google Search Console vor. Dabei gehen wir neben der Bedeutung auch gleich auf mögliche Problemlösungen ein, damit Sie genau wissen, wie Sie Fehler zu bewerten und mit selbigen umzugehen haben. Hier zunächst eine allgemeine Übersicht über die Fehlermeldungen, deren Bedeutung und Lösungsansätze:

 

Fehlermeldung Bedeutung Lösung
Serverfehler (5xx) Server gibt bei Anfrage 5xx-Fehler zurück (Seite ist nicht aufrufbar) Die betroffene Seite aufrufen
a.) erreichbar – kein Handlungsbedarf
b.) nicht erreichbar – Serverfehler beheben
Seite mit Weiterleitung URLs, die auf andere Seite weitergeleitet werden Weiterleitungen sind
a.) richtig gesetzt – kein Handlungsbedarf
b.) falsch gesetzt – Weiterleitung entsprechend ändern
Umleitungsfehler URLs, die nicht oder nicht richtig weitergeleitet werden
  • htaccess-Datei & Umleitungsregeln überprüfen
  • Weiterleitung auf passende Seite einrichten (falls nicht vorhanden)
Durch robots.txt-Datei blockiert / Warnung: Indexiert, obwohl durch robots.txt-Datei blockiert URLs werden indexiert / nicht indexiert, obwohl / da sie in der robots.txt-Datei gelistet sind Betroffene URLs
a.) sollen indexiert werden – URL aus robots.txt-Datei entfernen
b.) sollen nicht indexiert werden – auf noindex setzen
Durch “noindex”-Tag ausgeschlossen URLs werden von Google ignoriert (weder gecrawlt noch indexiert) Betroffene URLs
a.) sollen indexiert werden – noindex-Tag entfernen
b.) sollen nicht indexiert werden – kein Handlungsbedarf
Alternative Seite mit richtigem kanonischen Tag URLs sind Duplikate von Seiten, die Google als kanonisch einstuft Betroffene Seite
a.) verweist korrekt auf kanonische URL – kein Handlungsbedarf
b.) verweist auf falsche kanonische URL – kanonischen Tag auf die gewünschte URL setzen
Gefunden / Gecrawlt – zurzeit nicht indexiert URLs werden von Google gefunden / gecrawlt, aber nicht indexiert Indexierung händisch anstossen. Wenn das nicht hilft:

  • Content erweitern / optimieren
  • interne Verlinkung stärken
  • Performance optimieren
Wegen nicht autorisierter Anforderung (401) blockiert URLs werden durch eine Autorisierungsanforderung für den Googlebot blockiert Seite soll:

a.) nicht gecrawlt / indexiert werden – URL aus Sitemap entfernen und ggf. auf noindex setzen

b.) gecrawlt / indexiert werden – Erforderliche Anmeldung entfernen

Wegen Zugriffsverbot (403) blockiert URLs werden bewusst durch eine Zugriffssperre gesperrt Zugriffsverbot ist
a.) gewünscht – URL durch “noindex”-Tag oder robots.txt-Datei blockieren
b.) nicht gewünscht – nicht angemeldete Nutzer zulassen / Googlebot auf Zulassungsliste setzen
Gesendete URL nicht gefunden (404) URLs geben beim Abruf 404-Fehlermeldung zurück
  • Interne Verlinkung entfernen / URL aus der Sitemap entfernen
  • 301-Weiterleitung auf passende Seite einrichten
Soft 404-Fehler Server sendet beim Aufruf einen 200- oder 302-Statuscode, obwohl die Seite nicht mehr vorhanden ist und eigentlich eine 404-Fehlermeldung die richtige Antwort wäre URL prüfen:

  • Inhalte der Seite sind vorhanden und werden korrekt dargestellt – Kein Handlungsbedarf
  • 301-Code oder Weiterleitung auf eine andere URL – Ursprüngliche URL auf besser geeignete Seite weiterleiten
  • Statuscode 404 oder 410 – URL auf passende Seite weiterleiten
Eingereichte URL wegen eines anderen 4xx-Problems blockiert Server gibt eine 4xx–Fehlermeldung zurück, die zu keiner der vorangegangenen 4xx-Probleme passt URL individuell prüfen – Lösung hängt vom Ergebnis des URL-Checks ab
Duplikat – vom Nutzer nicht als kanonisch festgelegt URL ist ein Duplikat einer anderen Seite, es wurde keine der URLs als kanonisch gekennzeichnet – Google wählt die kanonische (originale) Seite eigenständig aus URL prüfen, um herauszufinden, welche Seite als kanonisch bestimmt wurde:
a.) Richtige URL als kanonisch bestimmt – Kein Handlungsbedarf
b.) Falsche URL als kanonisch bestimmt – Richtige kanonische Seite angeben
Duplikat – Google hat eine andere Seite als der Nutzer als kanonische Seite bestimmt URL wurde für mehrere Seiten als kanonische Seite gekennzeichnet, nach Einschätzung von Google eignet sich jedoch eine andere Seite besser als kanonische Seite URL prüfen, um herauszufinden, welche Seite als kanonisch bestimmt wurde:
a.) Richtige URL als kanonisch bestimmt – Kein Handlungsbedarf
b.) Falsche URL als kanonisch bestimmt – Inhalte anpassen oder von Google bestimmte URL aus dem Index entfernen

 

Im weiteren Verlauf dieses Beitrags werden die verschiedenen Fehlermeldungen, ihre Bedeutung und mögliche Lösungsansätze im Detail betrachtet.

 

 

Serverfehler (5xx)

Zu dieser Fehlermeldung heisst es von Google: “Ihr Server hat bei Anforderung der Seite einen 5xx-Fehler zurückgegeben”. Das bedeutet, dass der Googlebot entweder nicht auf die Seite zugreifen konnte, die Anfrage abgelaufen ist oder die Website ausgelastet war und die Anfrage deshalb abgebrochen wurde. Die Lösung: Versuchen Sie, die betroffenen Seiten einmal aufzurufen. Häufig treten Serverfehler nur vorübergehend auf. Die in der Google Search Console aufgeführten Seiten lassen sich bei Überprüfung daher oft problemlos aufrufen. Ist dies der Fall, besteht kein weiterer Handlungsbedarf. Lassen sich die betroffenen Seiten über längere Zeit nicht aufrufen, sollte die Ursache des zugrundeliegenden Serverfehlers gefunden und behoben werden.

 

Seite mit Weiterleitung

Hier werden alle URLs aufgelistet, die intern oder extern verlinkt sind, allerdings nicht mehr existieren und entsprechend weitergeleitet werden. In den meisten Fällen besteht hier kein Handlungsbedarf. Überprüfen Sie einmal, ob die Weiterleitungen richtig gesetzt sind. Ist dies der Fall, müssen Sie keine weiteren Schritte unternehmen. Sind falsche Weiterleitungen gesetzt, sollten Sie die Weiterleitungen entsprechend ändern.

 

Umleitungsfehler

Unter “Umleitungsfehler” aufgeführte URLs existieren nicht mehr (404) und werden nicht richtig oder überhaupt nicht weitergeleitet. Überprüfen Sie die htaccess-Datei und die Umleitungsregeln oder richten Sie (falls nicht erfolgt) eine Weiterleitung auf eine passende Seite ein.

 

Durch robots.txt-Datei blockiert

Bei der robots.txt-Datei handelt es sich um eine Textdatei, die Crawlern wie dem Googlebot signalisiert, welche Seiten gelesen werden dürfen und welche nicht. Sie wird von Crawlern entsprechend als erstes ausgelesen. Damit die robots.txt-Datei auch tatsächlich gefunden wird, muss sich die Datei im Hauptverzeichnis der Domain befinden. Es gibt pro Domain immer nur eine robots.txt-Datei.

 

Auszug der robots.txt-Datei von Google
Auszug der robots.txt-Datei von Google (Quelle: Google)

 

Die Fehlermeldung “Durch robots.txt-Datei blockiert” bedeutet, dass die entsprechenden URLs nicht indexiert werden, da sie sich in der robots-txt-Datei befinden. Eine Indexierung solcher durch robots.txt blockierten Seiten ist unter Umständen aber dennoch möglich, sofern Google weitere Informationen (beispielsweise durch interne Verlinkungen) finden kann, ohne die Seite zu crawlen. Ist dies der Fall und sollen die betroffenen URLs tatsächlich nicht in der Google-Suche ausgegeben werden, sollten sie anstelle des robots.txt lieber mit dem “noindex”-Tag versehen werden. Ist die Indexierung der betroffenen URLs dagegen gewünscht, sollten Sie sie aus der robots.txt-Datei entfernen.

 

Warnung: Indexiert, obwohl durch robots.txt-Datei blockiert

Die Warnung “Indexiert, obwohl durch robots.txt-Datei blockiert”, betrifft genau den im vorherigen Abschnitt beschriebenen Fall, dass eine URL von Google indexiert wird, obwohl sie in der robots.txt-Datei gelistet ist. In diesem Fall müssen Sie für die betroffenen URLs prüfen, ob:

  1. eine Indexierung gewünscht ist. (In diesem Fall sollte die URL aus der robots.txt-Datei entfernt werden.)
  2. keine Indexierung gewünscht ist. (In diesem Fall sollte die URL mit dem “noindex”-Tag versehen werden.)

 

Durch noindex-Tag ausgeschlossen

Die gelisteten Seiten wurden mit dem “noindex”-Tag versehen (“Indexierung zulässig? – Nein: “noindex” im Meta-Tag “robots” erkannt”) und werden von Google entsprechend ignoriert und folglich nicht indexiert. Wenn Sie nicht möchten, dass die betroffenen URLs indexiert werden, ist alles in Ordnung. Möchten Sie dagegen, dass ein oder mehrere der aufgeführten URLs indexiert werden, sollten Sie den “noindex”-Tag entfernen.

 

Detailansicht einer durch “noindex”-Tag ausgeschlossenen URL im Abdeckungsbericht
Detailansicht einer durch “noindex”-Tag ausgeschlossenen URL im Abdeckungsbericht. (Quelle: Google Search Console)

 

Alternative Seite mit richtigem kanonischen Tag

Die Fehlermeldung “Alternative Seite mit richtigem kanonischen Tag” hat viel mit den Themen “Duplikate” und “Canonical Tags” zu tun. Von Duplikaten spricht man im Rahmen der Suchmaschinenoptimierung, wenn zwei oder mehr Seiten mit einem identischen oder sehr ähnlichen Inhalt existieren. Mit Hilfe von Canonical Tags kann man Google signalisieren, welches der Duplikate indexiert werden soll. Dabei handelt es sich für Google jedoch immer nur um einen Hinweis, nicht um eine Regel! Ist kein kanonischer Tag hinterlegt, wählt Google selbst eine Seite als Original aus. Teilweise werden von Google auch andere Seiten als kanonisch bestimmt.

Zurück zur eigentlichen Fehlermeldung: Die aufgeführten URLs sind Duplikate von Seiten, die Google als kanonisch einstuft. Verweist die Seite wie im nachfolgenden Beispiel korrekt auf die kanonische Seite, besteht kein Handlungsbedarf:

 

Detailansicht einer URL mit korrektem Verweis auf die kanonische Seite im Abdeckungsbericht
Detailansicht einer URL mit korrektem Verweis auf die kanonische Seite im Abdeckungsbericht. (Quelle: Google Search Console)

 

Manchmal kommt es auch vor, dass Google eine andere Seite als der Nutzer für kanonisch hält. Hier sollte überprüft werden, ob Google tatsächlich die richtige Seite ausgewählt hat:

 

Detailansicht einer URL, bei der Google eine andere Seite als kanonisch bestimmt
Detailansicht einer URL, bei der Google eine andere Seite als kanonisch bestimmt. (Quelle: Google Search Console)

 

Im nachfolgenden Video erklärt Nora von Seokratie die Fehlermeldung und mögliche Lösungswege anhand weiterer, anschaulicher Beispiele:

 

YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

 

Genauere Informationen zum Umgang mit Duplikaten und Canonical Tags erhalten Sie ausserdem im weiteren Verlauf dieses Beitrags (“Duplikat – vom Nutzer nicht als kanonisch festgelegt” und “Duplikat – Google hat eine andere Seite als der Nutzer als kanonische Seite bestimmt”).

 

Gefunden / Gecrawlt – zurzeit nicht indexiert

Die Fehlermeldungen “Gefunden – zurzeit nicht indexiert” und “Gecrawlt – zurzeit nicht indexiert” sind sich recht ähnlich und eng mit der Website-Qualität einer Seite verknüpft. Es gibt jedoch einige Unterschiede:

Gefunden – zurzeit nicht indexiert

Hier hat Google die URLs über die Sitemap oder interne Verlinkungen gefunden. Im Bericht zur Indexabdeckung heisst es ausserdem, dass die Website beim Crawling-Versuch überlastet gewesen sei, sodass das Crawling erneut geplant wurde. 

Gecrawlt – zurzeit nicht indexiert

Die aufgelisteten URLs wurden von Google zwar gecrawlt, jedoch nicht indexiert. Sie könnten in Zukunft dennoch indexiert werden.

Die Google Search Console gibt hier leider keine Auskunft über den Grund der Nicht-Indexierung. Erfahrungsgemäss liegt die Ursache aber in einer geringen Website-Qualität. Diese kann sich wie folgt äussern:

  • nicht vorhandener/dünner Content
  • fehlende interne Verlinkungen
  • schlechte Performance
  • fehlende Relevanz

Unabhängig davon, welche Ursache der Nicht-Indexierung zugrunde liegt, kann es in einigen Fällen bereits helfen, die Indexierung in der GSC zu beantragen. Hier eine kurze Anleitung:

  • Entsprechende URL in Liste auswählen und prüfen
Ausschnitt der GSC mit Informationen zur Indexierung der URL
Klicken Sie in der Zeile der jeweiligen URL das Lupensymbol (URL prüfen) an, um detaillierte Informationen zur Indexierung der URL zu erhalten. (Quelle: Google Search Console)

 

  • Indexierung in der Detailansicht beantragen
Übersicht von Google zur händischen Beantragung einer Indexierung
Klicken Sie Indexierung beantragenan, um die Indexierung händisch bei Google zu beantragen. (Quelle: Google Search Console)

 

Wird eine Seite, auch nachdem Sie die Indexierung beantragt haben, nicht in den Index genommen, können folgende Lösungswege helfen:

 

Interne Verlinkung verbessern

Die internen Verlinkungen einer Website geben Google einen wichtigen Anhaltspunkt dafür, welche URLs die Wichtigsten sind. Umso mehr interne Verweise eine Seite erhält, desto relevanter wird sie von Google betrachtet. Darüber hinaus spielt aber auch die Position der Verlinkung eine wichtige Rolle. Verlinken Sie die Seite, die Sie indexieren möchten, an möglichst prominenter Stelle – zum Beispiel in der Navigation, auf der Startseite oder im Footer.

 

 

Content ausbauen / verbessern

Eine weitere Möglichkeit, Google die Relevanz einer Seite zu signalisieren, ist der Content. Dieser sollte daher unbedingt ausgebaut werden. Orientieren Sie sich hinsichtlich Inhalt und Länge am besten immer an den Top-10 Seiten, die zum jeweiligen Keyword in den Google Suchergebnissen ranken.

 

In unserem Blogbeitrag zum Thema “SEO-Texte schreiben lernen erfahren Sie, wie Sie beim Schreiben von Website-Texten vorgehen sollten (inkl. Schritt-für-Schritt-Anleitung) und was es dabei zu beachten gilt.

 

Im nachfolgenden Video zeigt Fabian Auler von Farbentour weitere Tools und Problemlösungen anhand von anschaulichen Praxisbeispielen auf:
YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

 

Achten Sie neben den eigentlichen Inhalten unbedingt auch auf eine übersichtliche Darstellung sowie gute Lesbarkeit. Auch die Performance Ihrer Seite sollte stimmen. Dies umfasst schnelle Ladezeiten, eine einwandfreie Darstellung (Mobil und Desktop) sowie das Bestehen der Core Web Vitals.

 

Wegen nicht autorisierter Anforderung (401) blockiert

Betroffene URLs werden laut Google durch eine Autorisierungsanforderung für den Googlebot blockiert. Das heisst, die URL gibt einen 401-Fehlercode zurück und der Googlebot ist nicht berechtigt, auf die URL zuzugreifen. Die Ursache liegt entweder in Zugriffsbeschränkungen aufgrund der IP-Adresse oder darin, dass ein Nutzername und Passwort benötigt werden. Prüfen Sie die betroffenen URLs und gehen Sie wie folgt vor:

  • Wird ein 401-Statuscode ausgegeben, sollten Sie die URL aus der XML-Sitemap entfernen und ggf. auf “noindex” setzen.
  • Soll kein 401-Code ausgegeben werden, entfernen Sie die erforderliche Anmeldung bzw. die HTTP-Authentifizierung.

 

Wegen Zugriffsverbot (403) blockiert

Zum Zugriffsverbot mit Statuscode 403 heisst es von Google: “Der User-Agent hat Anmeldedaten gesendet, hat aber keinen Zugriff. Der Googlebot sendet allerdings niemals Anmeldedaten. Die Fehlermeldung des Servers ist deshalb falsch.” In der Regel wurden betroffene URLs bewusst durch eine Zugriffssperre gesperrt, beispielsweise der Login-Bereich.

Häufig ist das Zugriffsverbot der URLs gewünscht. Ist dies der Fall, sollte die Seite darüber hinaus durch einen “noindex”-Tag oder die robots.txt-Datei blockiert werden. Soll die Seite dagegen vom Googlebot gecrawlt werden, sollten Sie nicht angemeldete Nutzer zulassen oder den Googlebot auf die Zulassungsliste setzen.

 

Gesendete URL nicht gefunden (404)

Unter dieser Fehlermeldung werden URLs gelistet, bei deren Abruf eine 404-Fehlermeldung zurückgegeben wurde. In vielen Fällen handelt es sich dabei um alte, inaktive Seiten. Google crawlt diese manchmal, vor allem wenn sie intern oder extern verlinkt sind oder mit der Sitemap eingereicht werden (siehe Screenshots).

 

Übersicht zur Seitenindexierung bei einem 404-Fehler
Die 404-Seite erhält einen internen Verweis von einer anderen URL der Website. (Quelle: Google Search Console)

 

Übersicht zur Einrichtung einer Sitemap bei einem 404-Fehler
Die 404-Seite wird mit der Sitemap eingereicht. (Quelle: Google Search Console)

 

Grundsätzlich gibt es folgende Lösungen, um die Fehlermeldung “Gesendete URL nicht gefunden (404)” zu beheben:

  1. Interne Verlinkung entfernen / URL aus der Sitemap entfernen
  2. 301-Weiterleitung auf passende Seite einrichten

Fehlerhafte interne Verlinkungen gilt es zu vermeiden. Ist eine Seite mit Statuscode 404 intern verlinkt, sollte die Verlinkung also entweder entfernt oder die Seite auf eine andere, möglichst passende URL (notfalls Startseite) weitergeleitet werden. Letzteres gilt vor allem dann, wenn die 404-URL weiterhin Traffic generiert oder Backlinks erhält. Befindet sich eine 404-Seite in der Sitemap, sollte sie entsprechend entfernt werden.

 

Soft 404-Fehler

Bei gewöhnlichen 404 Fehlermeldungen senden Server beim Aufruf also einen 404 Fehlercode, wenn eine angeforderte Seite nicht (mehr) vorhanden oder fehlerhaft ist. In den meisten Fällen ist das Löschen von Seiten oder die Umbenennung von URLs eine Ursache. Beim Soft 404-Fehler antworten Server dagegen nicht mit einem 404-, sondern mit einem 200- oder 302-Statuscode, obwohl die Seite nicht mehr vorhanden ist und eigentlich eine 404-Fehlermeldung die richtige Antwort wäre.

Werden Ihnen in der Google Search Console Soft 404-Fehler gemeldet, prüfen Sie die betroffene URL:

  • Sind die Inhalte der Seite vorhanden und werden korrekt dargestellt, sollte ein Statuscode 200 ausgegeben werden. Sie brauchen nichts weiter zu unternehmen.
  • Wird ein 301-Code ausgegeben bzw. auf eine andere URL weitergeleitet, sollte die ursprüngliche URL auf eine besser geeignete Seite weitergeleitet werden.
  • Existiert die betroffene URL nicht (mehr), sollte ein Statuscode 404 oder 410 ausgegeben werden. Sie sollten die URL auf eine passende Seite weiterleiten.

Im nachfolgenden Video erklärt Markus Hövener von Bloofusion noch einmal im Detail, was die Fehlermeldung “Soft 404” bedeutet und wie Sie am besten vorgehen:

YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

 

 

Eingereichte URL wegen eines anderen 4xx-Problems blockiert

Hier gibt der Server eine 4xx–Fehlermeldung zurück, die zu keiner der vorangegangenen 4xx-Probleme passt. Betroffene URLs müssen individuell überprüft werden. Nutzen Sie hierfür ebenfalls die im vorherigen Abschnitt erwähnten URL-Prüftools. Wie Sie die Fehler am besten beheben, hängt von den Ergebnissen des URL-Checks ab.

 

Duplikat – vom Nutzer nicht als kanonisch festgelegt

Die Fehlermeldung “Duplikat – vom Nutzer nicht als kanonisch festgelegt” bezieht sich auf die im Abschnitt “Alternative Seite mit richtigem kanonischen Tag” bereits beschriebenen Duplikate, für die kein kanonischer Tag hinterlegt wurde. Google bestimmt die kanonische URL (also das Original) in diesem Fall eigenständig und stuft die betroffene/ausgeschlossene URL nicht als kanonisch ein. Prüfen Sie betroffene URL, um herauszufinden, welche Seite Google als kanonisch einstuft:

 

Übersicht zur Seitenindexierung in der Google Search Console
Nutzer wurde keine kanonische URL angegeben, Google wählt diese daher eigenständig aus. (Quelle: Google Search Console)

 

Hat Google die richtige URL als kanonisch bestimmt, brauchen Sie nichts weiter zu unternehmen. Hat Google dagegen eine falsche URL als kanonisch bestimmt, sollten Sie die richtige kanonische Seite angeben.

 

Duplikat – Google hat eine andere Seite als der Nutzer als kanonische Seite bestimmt

Hier wurde zwar eines der Duplikate als kanonisch gekennzeichnet, jedoch eignet sich aus Sicht von Google eine andere URL besser als kanonische Seite. In der Folge indexiert Google die eigenständig ausgewählte URL anstelle der von Ihnen als kanonisch bestimmten Seite. Überprüfen Sie auch hier wieder die betroffene URL, um herauszufinden, welche Seite Google als Original bestimmt hat.

Sind Sie der Meinung, dass es sich bei der von Google ausgewählten Seite nicht um ein Duplikat handelt oder Google die falsche Seite ausgewählt hat, sollten Sie die Inhalte der betroffenen Seiten so anpassen, dass sich diese voneinander unterscheiden. Alternativ können Sie auch die von Google als kanonisch bestimmte Seite auf “noindex” setzen und so aus dem Index entfernen. Überprüfen Sie hier in den nächsten Tagen und Wochen aber unbedingt, ob Google die von Ihnen ursprünglich als kanonisch bestimmte Seite indexiert. Beantragen Sie die Indexierung der URL auch gerne händisch, nachdem Sie das Duplikat aus dem Index entfernt haben, um diesen Prozess zu beschleunigen.

 

Zusammenfassung

Die Google Search Console stellt für Website-Betreiber und Suchmaschinenoptimierer ein überaus wichtiges Tool zur Optimierung von Webseiten dar. Neben konkreten Daten zur Sichtbarkeit in Suchmaschinen, lassen sich auch wichtige Erkenntnisse zu Massnahmen und deren Priorisierung ableiten. Im Abdeckungsbericht sollten Sie vor allem die ausgeschlossenen Seiten im Detail betrachten. Um Probleme im Bereich Indexierung zu beheben, befolgen Sie die Ausführungen dieses Beitrags. Beachten Sie dabei aber immer, dass nicht alle der aufgeführten Fehlermeldungen auch tatsächlich problematisch sind. Hier empfiehlt es sich, die Fehlermeldungen individuell zu betrachten und ggf. Optimierungsmassnahmen abzuleiten und zu priorisieren.

 

Google Search Console Abbildung
Die Google Search Console liefert Nutzern wichtige Daten und Optimierungspotenziale für die Sichtbarkeit einer Website in Suchmaschinen. (Quelle: stock.adobe.com – PixieMe)

 

Wir von seonicals® sind bereits seit über 15 Jahren im Bereich der Suchmaschinenoptimierung tätig und wissen daher genau, worauf es ankommt. Als kompetenter Ansprechpartner ermitteln wir in einer ausführlichen SEO-Analyse zunächst Probleme und Potenziale Ihrer Website und leiten priorisierte Handlungsempfehlungen ab. Als Full-Service-Agentur begleiten wir darüber hinaus auch gern die Umsetzung der vorgeschlagenen Massnahmen. Senden Sie uns noch heute eine Anfrage und vereinbaren Sie ein kostenloses, unverbindliches Erstgespräch, um die Sichtbarkeit Ihrer Website nachhaltig zu steigern!

 

Kontakt aufnehmen

 

FAQ: häufig gestellte Fragen

Die Google Search Console bezieht sich vor allem auf eine Website (Klicks, Impressionen, CTR, Nutzerfreundlichkeit etc.), während der Fokus bei Google Analytics eher auf dem Publikum (Absprungrate, Sitzungsdauer, Konversionen etc.) liegt. Viele User nutzen die Analysetools gemeinsam, um möglichst umfassende Informationen zu erhalten.

Bei der Google Search Console (kurz: GSC), die ehemals auch als Google Webmaster Tools bezeichnet wurde, handelt es sich um ein kostenfreies Google-Tool zur Analyse und Optimierung von Websites. Die GSC gibt zahlreiche Empfehlungen zur Optimierung einer Website. Darüber hinaus erhalten Nutzer Warnungen bei Problemen.

Crawler erfassen (crawlen) automatisch Webseiten. Dabei folgen sie Verlinkungen von Seite zu Seite und speichern Informationen darüber, was sie auf diesen Seiten finden. Beim Crawling kann der Google-Bot natürlich auf Inkonsistenzen (z. B. durch Verlinkung nicht existenter Seiten, Serverfehler, mangelnde Zugriffsrechte, etc.) stossen. Die Summe solcher Inkonsistenzen wird als Crawling Fehler bezeichnet.

Zu dieser Fehlermeldung heisst es von Google: “Ihr Server hat bei Anforderung der Seite einen 5xx-Fehler zurückgegeben”. Das bedeutet, dass der Googlebot entweder nicht auf die Seite zugreifen konnte, die Anfrage abgelaufen ist oder die Website ausgelastet war und die Anfrage deshalb abgebrochen wurde.

  • Welche Seiten einer Website werden in der Google-Suche angezeigt/nicht angezeigt?
  • Warum wird eine Seite bei Google angezeigt/nicht angezeigt?
  • Welche Probleme hat Google beim Erfassen der Inhalte einer Website?
  • Wie interagieren Nutzer mit der Website?
  • Welche Informationen erfasst Google über die Website?

Johannes Böttner

Johannes ist nicht nur SEO-Experte, sondern schreibt auch leidenschaftlich gern Texte über alle Online-Marketing-Themen.

Seonicals: Geschäftsführer Florian Stein
Ähnliche Beiträge - das könnte Ihnen auch gefallen

Jetzt kostenfreie Erstberatung sichern!

Sie machen den ersten Schritt. Wir übernehmen den Rest.

  1. Erstgespräch & Ist-Analyse

    In einem persönlichen Gespräch lernen wir uns kennen und besprechen den Status Quo. Wie gesund ist Ihr Baum gerade – und wo benötigt er weitere Pflege?

    1.
    Pfeil
  2. Auswertung & Strategie

    Wir präsentieren Ihnen gewinnbringende Handlungsempfehlungen, mit deren Hilfe wir Potenziale aufzeigen und nachhaltiges Wachstum garantieren. Wir sorgen dafür, dass Ihr Baum die richtige Pflege erhält, um so viele Früchte wie möglich tragen zu können.

    2.
    Pfeil
  3. Umsetzung & Weiterentwicklung

    Mit dem richtigen Marketing-Mix machen wir aus Ihrem Unternehmen einen ernstzunehmenden Konkurrenten und entwickeln Ihre Marke stetig weiter – selbstverständ­lich immer im engen Austausch mit Ihnen. Damit garantieren wir jedes Jahr aufs Neue eine reichhaltige Ernte für Sie.

    3.

Jetzt kostenlose Erstberatung sichern! 

Wir bieten Ihnen eine kostenfreie Beratung, vor Ort oder online, in der wir Ihre Online-Marketing-Strategie analysieren und passende Massnahmen für Ihren Erfolg identifizieren.

Adrian Sandmeier
Ansprechpartner Schweiz

=
Bitte lösen Sie diese Aufgabe.

So finden Sie uns

Uetlibergstrasse 20
8045 Zürich
+41 43 534 00 35
info@seonicals.ch
Anfahrt ansehen
crosschevron-down