Wenn du bei den großen Suchmaschinen nach deiner Internetseite suchst und feststellst: die Webseite wird nicht gefunden, kann dies mehrere Ursachen haben. Fehlende Indexierung, zu lange Ladezeiten oder Strafen durch Google sind nur einige davon. Gerade bei jüngeren Webauftritten kann es vorkommen, dass die Webseite nicht gefunden wird. Die Suche nach der Ursache und entsprechenden Problemlösungen kann sich aufwändig gestalten. Kenntnis möglicher Gründe, aus denen die Webpräsenz unsichtbar bleibt, ist eine wichtige Voraussetzung zur Problemlösung.

Problematik im Überblick

Die Webseite wird nicht gefunden, wenn sie nicht oder nicht korrekt indexiert ist. In manchen Fällen ist eine Webseite auch (oft unbewusst) davon ausgeschlossen, dass Suchmaschinen auf sie Zugriff haben. Gründe hierfür können eine Sperrung durch die robots.txt oder den NoIndex und den Canonical-Tag sein. Auch fehlende Content-Optimierung kann die Webseite im Ranking der Suchergebnisse weit nach hinten gelangen lassen.

Zu den am weitesten verbreiteten Problemen hinsichtlich der Sichtbarkeit oder Auffindbarkeit von Webseiten gehören:

  • Fehlende Indexierung bei der Suchmaschine
  • Website vom Suchmaschinen-Zugriff ausgeschlossen
  • Zu lange Ladezeiten
  • Content-Probleme
  • Unter-Webseite wird nicht gefunden, sondern nur die Startseite
  • Fehlendes Ranking für relevante Keywords
  • Schlechte Position in den Suchergebnissen: unzufriedenstellendes Ranking

Fehlende Indexierung bei der Suchmaschine

Befindet sich eine Webseite nicht auf dem Index des Suchmaschinenbetreibers, kann sie nicht gefunden werden. Wenn deine Webseite erst kürzlich online ist, hat Google sie möglicherweise noch nicht in den Index aufgenommen. In diesem Falle kann Geduld gefragt sein.

Der Google-Index stellt eine Art Verzeichnis für Webseiten dar. Sobald jemand auf Google einen Suchbegriff eingibt, kommt es zur Abfrage des Index. Sollte eine Webseite hier nicht enthalten sein, kann sie in den Suchergebnislisten (SERPs) nicht erscheinen.

Du kannst auf einfache Weise überprüfen, ob eine Webseite im Google Index vorhanden ist oder nicht. Die Suchanfrage „site:www.deinedomain.de“ (ersetze www.deinedomain.de durch die Name deiner Webseite) führt zur Google Search Console. Wenn die Seite Gegenstand des Google Index ist, taucht das Suchergebnis hier auf. Sollte stattdessen die Meldung erscheinen, dass Google nichts finden konnte, ist dies ein Indikator auf fehlende Indexierung.

Wenn deine Seite bisher nicht im Index vorhanden ist, kannst du eine Indexierung via Google Search Console beantragen. Informationen über indexierte und Live-Version einer URL erhältst du über das interne URL-Prüftool Googles. Diese Option war in der älteren Search Console von Google unter der Bezeichnung „Abruf wie durch Google“ bekannt. Über das URL-Prüftool kannst du das Crawlen der URL anfordern. Die neuen Informationen beinhalten sämtliche Blockierungen durch Optionen wie noindex und nocrawl sowie die URL der kanonischen Seite.

Solltest du die Funktion SafeSearch nutzen, werden Suchergebnisse gefiltert. Um sämtliche Ergebnisse sehen zu können, solltest du diese Option deaktivieren.

Website ist vom Suchmaschinen-Zugriff ausgeschlossen

Eine Webseite wird oft nicht gefunden, wenn sie vom Crawling durch eine Suchmaschine ausgeschlossen wurde. Bestimmte Anweisungen teilen dem Google-Bot mit, dass kein Crawling der Seite stattfinden soll. In diesem Fall wird Google vom Zugriff ausgesperrt. Die Sperrung der Seiten erfolgt auf verschiedene Weisen:

  • robots.txt
  • Noindex
  • Canonical Tag

Robots.txt

Die robots.txt stellt eine Textdatei dar. Sie liegt im Root-Verzeichnis des Servers und ist imstande, Google bestimmte Anweisungen darüber zu übermitteln, welche Bereiche für Crawler zugänglich sind. Die robots.txt ist imstande, grundsätzlich sämtliche Suchmaschinen davon abzuhalten, eine Webseite zu crawlen oder zu durchsuchen. Sie erscheint infolgedessen auch in keinem Index.

Normalerweise solltest du eine robots.txt haben, wobei es in Ausnahmefällen vorkommen kann, dass keine solche Datei vorliegt. Sofern eine robots.txt existiert, ist darauf genau spezifiziert, worauf der Bot von Google zugreifen darf und worauf nicht.

Wenn du das Folgende in der robots.txt findest:

User-agent: *
Disallow: /

bedeutet dies, dass du dem Bot keinen Zugang zur Startseite gewährst. Damit hat er gleichermaßen keinen Zugang zur Unterseite. Eine Änderung in

User-agent: *
Allow: /

führt dazu, dass die Website nun indexiert wird.

Noindex

Noindex (oder Meta-Robots-Tag) ist ein Meta-Tag. Auch mit diesem kannst du Google daran hindern, deine Seite zu indexieren. Noindex lässt sich als Tag in den Seiten-Quelltext einbinden und zwar in den Header-Bereich. Noindex befindet sich entsprechend, anders als die robots.txt, nicht in einer eigenen Datei. Um es zu sehen, musst du dir den Quellcode der Seite schauen. Klicke hierzu die rechte Maustaste und anschließend auf die Fläche „Seitenquelltext anzeigen). Nun öffnet sich eine Textdatei, die den HTML-Code der Seite anzeigt. Im Quelltext ist nun der Code-Bestandteil wird die Suchmaschine angewiesen, die einzelne Internetseite nicht in den Index aufzunehmen (Noindex). Eine Änderung dieser Passage auf „index, follow“ behebt das Problem und weist Google an, die Seite wieder in den Index zu integrieren.

Canonical-Tag

Ebenso lässt sich analog das Canonical-Tag in den Quelltext der Seite einfügen. Dieses verfolgt jedoch ein anderes Ziel als das Noindex-Tag. Mit dem Canonical-Tag weist du Google auf die Original-Version einer Webseite hin. Das Canonical-Tag findet daher Anwendung, wenn zwei oder mehr verschiedene URLs auf den gleichen oder sehr ähnlichen Inhalt verweisen. Das Canonical-Tag kann damit die Probleme mehrfacher Inhalte (Duplicate Content) umgehen. Sollte deine Webseite nicht zu finden sein, empfiehlt sich eine Überprüfung, ob der Google-Bot über einen dieser Befehle beziehungsweise Tags vom Crawlen abgehalten wurde.

Webseite wird nicht gefunden aufgrund zu langer Ladezeiten

Eines der wichtigsten Kriterien der Suchmaschinenoptimierung bei Google ist das Nutzererlebnis beziehungsweise die Nutzererfahrung (User Experience). Daher sind kurze Ladezeiten ein wichtiger Ranking-Faktor. Braucht eine Webseite zu lange, um vollständig zu laden, kann Google dies mit einem schlechten Ranking bestrafen. Ein wichtiges Ziel Googles besteht darin, die gebotenen Informationen und Webseiten in eine bestimmte Ordnung zu bringen. Damit soll Nutzenden die bestmöglichen Suchergebnisse zur Verfügung gestellt werden. Dies beinhaltet gleichermaßen eine schnellstmögliche Bereitstellung der Informationen. Maßnahmen zur Verkürzung der Ladezeiten tragen daher dazu bei, dass die Webseite besser gefunden wird und ein besseres Ranking aufweist.

Content-Probleme

Eine Webseite wird häufig nicht gefunden, wenn die gebotenen Inhalte nicht den Qualitätsanforderungen der Suchmaschine genügen. Es ist möglich, dass der Inhalt nicht oder erst sehr weit hinten in den Suchergebnissen erscheint, wenn der Content nicht optimiert ist.

Dies betrifft zahlreiche Faktoren, die von der optimalen Länge der Artikel bis zur Keyword-Dichte reichen. Im Allgemeinen bevorzugt Google umfassenden, hochwertigen Content. So schneiden beispielsweise im Blogs tendenziell Artikel mit über 1.000 Wörtern besser ab als kürzere.

Blogartikel geringen Umfangs (weniger als 300 Worte) sieht die Suchmaschine als so genannten thin content oder dünnen Inhalt.

Vorsicht ist jedoch auch bei Überoptimierung der Inhalte geboten. Eine zu hohe Keyword-Dichte erkennt der Google-Algorithmus und straft ihn als Keyword-Stuffing ab. Typisch ist beim Überoptimieren, dass Keywords in sämtlichen Überschriften, Teil-Überschriften und Bild-Überschriften auftauchen. Dies stuft Google als schlechten Content ein. Beim Verfassen und Bereitstellen der Inhalte solltest du daher im Kopf behalten, dass Google auf ein positives Nutzererlebnis ausgelegt ist. Texte werden also langfristig zu einem besseren Ranking beitragen, wenn sie in erster Linie für die Lesenden verfasst werden.

Unter-Webseite wird nicht gefunden

In bestimmten Fällen kommt es vor, dass nur die Startseite gefunden wird, aber ein bestimmter Bereich oder eine Sub-Webseite wird nicht gefunden. Die Suche nach bestimmten Produkten oder Landingpages ergibt keine Treffer. In diesem Fall können mehrere Gründe vorliegen. Eine Unter-Webseite wird nicht gefunden, wenn Google diese nicht indexiert hat.

Auch für Unterseiten lässt sich dies einfach überprüfen, indem Du in die Suchleiste das Folgende eingibst: „site:www.deinedomain.de“ (ersetze www.deinedomain.de durch die Name deiner Webseite). Diese Eingabe führt zu einer Auflistung aller gegenwärtigen Unter-Webseiten, die sich derzeit im Index von Google befinden.

Wenn diese Eingabe zu keinem Ergebnis führt oder nur die Haupt-Seite angezeigt wird, kann ein tiefer liegendes technisches Problem vorliegen. Häufiger ist es jedoch der Fall, dass eine Auflistung der Unterseiten angezeigt wird, diese jedoch in den Suchergebnislisten im Ranking zu weit hinten stehen.

Schlechte Position in den Suchergebnislisten: unzufriedenstellendes Ranking

Wenn der Eindruck entsteht, eine Webseite wird nicht gefunden, kann es auch sein, dass sie im Ranking zu weit hinten steht. Es kann vorkommen, dass die Seite erst auf der dritten oder vierten Suchergebnisseite bei Google auftaucht. In diesem Falle wird die Seite zwar gefunden, doch ist das Ranking nicht zufriedenstellend. Die Ursache kann in fehlender Suchmaschinenoptimierung liegen. Oder aber die Webseite ist gerade erst online gegangen. Es dauert einige Zeit, bis frisch eingestellter Content von Suchmaschinen erfasst wird. Ebenso vergeht eine gewisse Zeit, bis SEO-Maßnahmen ihre Wirkung zeigen. Es können unter Umständen mehrere Wochen oder bis zu drei Monate vergehen, bis die Seite in den SERPs weiter vorne auftaucht.

Schlechtes Ranking kann auch technische Ursachen haben, darunter die oben erwähnten langsamen Ladezeiten oder mangelnde Nutzerfreundlichkeit (beispielsweise wegen schlechter Navigation). Auch unsauberer Code oder fehlende mobile Optimierung oder mangelnde Responsivität können eine Seite in den Ranking-Ergebnissen nach hinten rutschen lassen.

Fehlendes Ranking für relevante Keywords

Eine Webseite wird nicht gefunden, wenn sie nicht auf die Suchbegriffe optimiert ist. Nutzer können über unterschiedliche Suchanfragen auf deine Webseite aufmerksam werden. Daher kommt der Wahl der richtigen Keywords und deren Optimierung eine hohe Bedeutung zu. Die Seite will von Nutzern gefunden werden, die sich für die angebotenen Inhalte oder Produkte interessieren. Wenn die Seite nicht für relevante Suchbegriffe rankt, wurden entsprechende Suchbegriffe möglicherweise nicht in der optimalen Dichte verwendet. Eine weitere Ursache kann im lokalen Bezug liegen. Suchmaschinen sind bereits recht weit vorangeschritten in der Erkennung des jeweiligen Standortes, jedoch nicht nicht perfekt. Die Suche nach dem relevanten Keyword im Kombination mit Ihrem Standort kann zum gewünschten Ergebnis führen.

Sanktionen durch die Suchmaschine: Google Penalty

Bestimmte Fehler in der Webseite ahndet Google durch eine so genannte Penalty. Eine Webseite wird nicht mehr gefunden, wenn Google die Seite aus dem Index nimmt. Dies kann damit zusammenhängen, dass ein Verstoß gegen die Webmaster-Richtlinien von Google vorliegt.

Insbesondere auf Aspekte wie falsches Linkbuilding (beispielsweise durch den unlauteren Kauf Backlinks) oder auf mangelnde Content-Qualität (Thin Content) reagiert die Suchmaschine sensibel. Doppelte Inhalte oder zu kurze Texte stuft Google als Verstoß gegen die Richtlinien ein. Eine Abstufung oder gar eine Verbannung aus dem Ranking in den Suchergebnislisten ist die Folge. Nur unter Nutzung hochwertiger, optimierter Inhalte und unter sauberem Linkaufbau ist eine erfolgreiche und hohe Platzierung in den Suchergebnissen denkbar.

Fazit

Eine Webseite wird nicht gefunden, wenn die Suchmaschine sie nicht indexiert hat. Die Ursachen können vielseitig sein und reichen von einem Ausschluss von der Indexierung (beispielsweise über die robots.txt oder über Noindex) bis zur Abstrafung aufgrund mangelnder Content-Qualität oder zu langen Ladezeiten. Viele der Ursachen lassen sich durch einen Blick in den Quellcode der Seite oder durch SEO-Maßnahmen beheben.