„Entdeckt – derzeit nicht indiziert“ verstehen und lösen

Veröffentlicht: 2023-02-07

Wenn Sie in der Google Search Console „Entdeckt – derzeit nicht indexiert“ sehen, bedeutet dies, dass Google die URL kennt, sie aber noch nicht gecrawlt und indexiert hat.

Dies bedeutet nicht unbedingt, dass die Seite niemals verarbeitet wird. Wie in der Dokumentation angegeben, können sie später ohne zusätzlichen Aufwand Ihrerseits darauf zurückkommen.

Andere Faktoren könnten Google jedoch daran hindern, die Seite zu crawlen und zu indexieren, darunter:

  • Serverprobleme und technische Probleme vor Ort, die die Crawling-Funktion von Google einschränken oder verhindern.
  • Probleme im Zusammenhang mit der Seite selbst, z. B. Qualität.

Sie können auch die Google Search Console Inspection API verwenden, um URLs für ihren coverageState -Status (sowie andere nützliche Datenpunkte) massenhaft in die Warteschlange zu stellen.

Fordern Sie die Indexierung über die Google Search Console an

Dies ist eine offensichtliche Lösung, die das Problem in den meisten Fällen lösen wird.

Manchmal ist Google einfach langsam beim Crawlen neuer URLs – das passiert. Aber manchmal sind zugrunde liegende Probleme der Schuldige.

Wenn Sie die Indizierung anfordern, kann eines von zwei Dingen passieren:

  • URL wird „gecrawlt – derzeit nicht indexiert“
  • Temporäre Indizierung

Beides sind Symptome zugrunde liegender Probleme.

Das zweite passiert, weil das Anfordern der Indexierung Ihrer URL manchmal einen vorübergehenden „Aktualitätsschub“ verleiht, der die URL über die erforderliche Qualitätsschwelle bringen und wiederum zu einer vorübergehenden Indexierung führen kann.


Holen Sie sich den täglichen Newsletter, auf den sich Suchmaschinenvermarkter verlassen.

Verarbeite .. Bitte warten.

Siehe Bedingungen.


Probleme mit der Seitenqualität

Hier kann der Wortschatz verwirrend werden. Ich wurde gefragt: "Wie kann Google die Seitenqualität bestimmen, wenn sie noch nicht gecrawlt wurde?"

Das ist eine gute Frage, und die Antwort lautet, dass dies nicht möglich ist.

Google macht eine Annahme über die Qualität der Seite basierend auf anderen Seiten in der Domain. Ihre Klassifizierungen basieren ebenfalls auf URL-Mustern und der Website-Architektur.

Infolgedessen kann das Verschieben dieser Seiten aus der „Bekanntheit“ in die Crawl-Warteschlange aufgrund des Qualitätsmangels, den sie auf ähnlichen Seiten festgestellt haben, depriorisiert werden.

Es ist möglich, dass Seiten mit ähnlichen URL-Mustern oder solchen, die sich in ähnlichen Bereichen der Website-Architektur befinden, im Vergleich zu anderen Inhalten, die auf dieselben Benutzerabsichten und Schlüsselwörter abzielen, ein geringes Wertangebot haben.

Mögliche Ursachen sind:

  • Die Hauptinhaltstiefe.
  • Präsentation.
  • Ebene der unterstützenden Inhalte.
  • Einzigartigkeit der angebotenen Inhalte und Perspektiven.
  • Oder noch manipulativere Probleme (dh der Inhalt ist von geringer Qualität und automatisch generiert, gesponnen oder dupliziert direkt bereits etablierte Inhalte).

Die Arbeit an der Verbesserung der Inhaltsqualität innerhalb des Site-Clusters und der spezifischen Seiten kann sich positiv darauf auswirken, das Interesse von Google wiederzubeleben, Ihre Inhalte gezielter zu crawlen.

Sie können auch andere Seiten auf der Website noindexieren, von denen Sie anerkennen, dass sie nicht von höchster Qualität sind, um das Verhältnis von Seiten guter Qualität zu Seiten schlechter Qualität auf der Website zu verbessern.

Crawl-Budget und Effizienz

Das Crawl-Budget ist ein oft missverstandener Mechanismus im SEO.

Die meisten Websites müssen sich darüber keine Gedanken machen. Tatsächlich behauptet Gary Illyes von Google, dass wahrscheinlich 90 % der Websites nicht über das Crawl-Budget nachdenken müssen. Es wird oft als Problem für Unternehmenswebsites angesehen.

Die Crawling-Effizienz hingegen kann sich auf Websites jeder Größe auswirken. Wenn dies übersehen wird, kann dies zu Problemen beim Crawlen und Verarbeiten der Website durch Google führen.

Zur Veranschaulichung, wenn Ihre Website:

  • Dupliziert URLs mit Parametern.
  • Auflösung mit und ohne nachgestellte Schrägstriche.
  • Ist auf HTTP und HTTPS verfügbar.
  • Stellt Inhalte von mehreren Subdomains bereit (z. B. https://website.com und https://www.website.com).

…dann haben Sie möglicherweise Duplizierungsprobleme, die sich auf die Annahmen von Google zur Crawling-Priorität basierend auf allgemeineren Website-Annahmen auswirken.

Möglicherweise verbrauchen Sie das Crawl-Budget von Google mit unnötigen URLs und Anfragen. Da der Googlebot Websites in Portionen crawlt, kann dies dazu führen, dass die Ressourcen von Google nicht weit genug reichen, um alle neu veröffentlichten URLs so schnell zu entdecken, wie Sie möchten.

Sie möchten Ihre Website regelmäßig crawlen und sicherstellen, dass:

  • Seiten werden (nach Wunsch) in eine einzelne Subdomain aufgelöst.
  • Seiten werden in ein einzelnes HTTP-Protokoll aufgelöst.
  • URLs mit Parametern werden (wie gewünscht) bis zur Wurzel kanonisiert.
  • Interne Links verwenden Weiterleitungen nicht unnötig.

Wenn Ihre Website Parameter wie E-Commerce-Produktfilter verwendet, können Sie das Crawlen dieser URI-Pfade eindämmen, indem Sie sie in der robots.txt-Datei untersagen.

Ihr Server kann auch wichtig dafür sein, wie Google das Budget zum Crawlen Ihrer Website zuweist.

Wenn Ihr Server überlastet ist und zu langsam reagiert, können Crawling-Probleme auftreten. In diesem Fall kann der Googlebot nicht auf die Seite zugreifen, was dazu führt, dass einige Ihrer Inhalte nicht gecrawlt werden.

Folglich wird Google versuchen, später wiederzukommen, um die Website zu indizieren, aber es wird zweifellos den gesamten Prozess verzögern.

Interne Verlinkung

Wenn Sie eine Website haben, ist es wichtig, interne Links von einer Seite zur anderen zu haben.

URLs, die keine oder genügend interne Links haben, schenkt Google in der Regel weniger Aufmerksamkeit – und schließt sie unter Umständen sogar aus seinem Index aus.

Sie können die Anzahl der internen Links zu Seiten durch Crawler wie Screaming Frog und Sitebulb überprüfen.

Eine organisierte und logische Website-Struktur mit internen Links ist der beste Weg, wenn es um die Optimierung Ihrer Website geht.

Aber wenn Sie damit Probleme haben, können Sie sicherstellen, dass alle Ihre internen Seiten miteinander verbunden sind, indem Sie sich mithilfe von HTML-Sitemaps in die Crawling-Tiefe „hacken“.

Diese sind für Benutzer konzipiert, nicht für Maschinen. Obwohl sie jetzt als Relikte angesehen werden, können sie immer noch nützlich sein.

Wenn Ihre Website viele URLs hat, ist es außerdem ratsam, sie auf mehrere Seiten aufzuteilen. Sie möchten nicht, dass sie alle von einer einzigen Seite aus verlinkt sind.

Interne Links müssen auch das <a>-Tag für interne Links verwenden, anstatt sich auf JavaScript-Funktionen wie onClick() zu verlassen.

Wenn Sie ein Jamstack- oder JavaScript-Framework verwenden, untersuchen Sie, wie es oder verwandte Bibliotheken mit internen Links umgehen. Diese müssen als <a>-Tags dargestellt werden.


Die in diesem Artikel geäußerten Meinungen sind die des Gastautors und nicht unbedingt Search Engine Land. Mitarbeiter Autoren sind hier aufgelistet.