121WATT

Haben Sie Fragen?
FAQ
089 416126990

Warum ist meine Seite nicht bei Google zu finden?

Zum Lesen auf deinem Desktop Erinnerung einrichten »

Keine Artikel mehr verpassen? Jetzt Newsletter abonnieren »

Ihr habt viel Arbeit in Eure Inhalte investiert, Ihr habt eure Seite optimiert, eine gute logische Struktur entwickelt und viele relevante Links für Eure Inhalte bekommen? Eigentlich müsste Eure Seite gute Positionen bei Google & Co. haben, nur leider könnt Ihr weder über eine eigene Suche oder auch über relevante SEO Tools, wie Searchmetrics oder Sistrix, Rankings erkennen. Wir haben im folgenden Artikel Gründe und Tools zusammengestellt, mit denen Ihr überprüfen könnt aus welchen Gründen Eure Seiten nicht über Google gefunden werden können.

#1 Google hat Deine Seite noch nicht indexiert

Auch Google braucht Zeit. Wenn Ihr also Eure Seite erst unlängst live gestellt habt, kann es passieren, das Google Eure Seite einfach noch nicht gefunden und indexiert hat. Üblicherweise folgt der Google Crawler bekannten URLs und folgt alle neuen URLs, die Google in diesem Crawl Prozess finden kann. Die letzte bekannte Zahl (2016) ist das Google mehr als 130 Billionen Seiten in seinem Index hat. Und auch wenn Google einer der größten Rechenkapazitäten weltweit besitzt, so priorisiert Google sein Crawling und Indexing.

Tipp: Es gibt aber eine einfache Möglichkeit Google neue Seiten, aber auch Änderungen auf Euren Seiten mitzuteilen. Ihr geht in die Google Search Console. Unter dem Berichtsreiter Crawling-> Abruf wie durch Google, könnt Ihr Eure neue Seite durch Google crawlen und indexieren lassen. Mehr dazu findet Ihr auch hier.

Abruf wie durch Google-Feature in der Search Console

Google kann Deine Seite nicht finden

Handelt es sich um eine Unterseite, kann es sein, dass sie nicht korrekt oder gar nicht verlinkt ist. Vielleicht fehlt sie auch in der XML Sitemap. Ersteres macht es Google schwierig, die Seite zu crawlen. Das Fehlen in der XML Sitemap zögert das Ganze nur heraus.

Dein Canonical-Tag verweist auf eine andere URL

Mit dem Canonical-Tag (rel=canonical) kann man dafür sorgen, dass bei mehreren URLs mit gleichem oder ähnlichem Inhalt nur eine URL (Quelle) zur Indexierung verwendet wird. Dadurch entgeht man den Nachteilen von Duplicate Content. Wenn nun also, zum Beispiel nach einem Relaunch, das Canonical auf eine andere URL verweist, führt das dazu, dass die Ursprungs-URL nicht korrekt indexiert werden kann.

Du wurdest Opfer von Malware oder Hijacking

Hierauf wirst Du in der Search Console (Webmaster-Tools) meistens hingewiesen. Wirf deshalb immer einen Blick auf Benachrichtigungen oben rechts oder schau Dir die Sicherheitsbenachrichtigungen in der linken Navigation an. Alternativ dazu empfehle ich dir den Anti-Malware SaaS Sucuri – dieser Dienst überwacht deine Website ständig und informiert dich bei Problemen und hilft bei der Lösung!

Du hast zuviel Duplicate Content

Wenn Du Content bereitstellst, der so exakt oder sehr ähnlich auf einer anderen Seite zu finden ist, wird Google diese Seite zwar indexieren, aber wahrscheinlich nicht dort anzeigen, wo du ihn gerne hättest. Der Grund: dieser Content ist nicht einzigartig. Das passiert besonders häufig bei Produktbeschreibungen in Online-Shops oder Facetten-Navigationen.

Tipp: Du kannst leicht herausfinden, ob Du Duplicate Content bereitstellst, indem Du einen Satz aus dem fraglichen Text nimmst und in Anführungszeichen bei Google suchst oder deine URL bei Copyscape auf DC überprüfst.

Du hast Google per noindex ausgesperrt

Möglicherweise hindert das Meta-Tag „Robots“ mit dem Wert „noindex“ Google daran, Deine Seite zu indexieren. Möchtest Du das ändern, entferne den Wert „noindex“ . Meistens werden diese Einstellungen über Eure Content Management Systeme vorgenommen. Hinweis: Der noindex-Befehl befindet sich im Head-Bereich Deiner Website und sollte ungefähr so aussehen:

<meta name="robots" content="noindex" />
Ein einfaches Tool um die falsche Auszeichnung über ein „noindex“ festzustellen ist browseo. Im Folgenden haben wir für Euch hier mal ein Screenshot dargestellt, wie das entsprechend aussehen könnte. Neben vielen relevanten Daten, die Euch bei der Suchmaschinenoptimierung helfen, wie Titel, Description etc. findet Ihr auch weiter unten die Angaben ob Eure Seite auf „index“ oder „noindex“ gesetzt ist.

Noindex mit Browseo Tool überprüfen

 

 

Du hast Crawler per robots.txt generell ausgesperrt

Wenn sich im Rootverzeichnis Deiner Domain eine Datei namens robots.txt befindet, welche die folgenden Zeilen beinhaltet, hast Du sowohl Googles Crawler als auch allen anderen Crawlern die Sicht auf Deine Seite verwehrt:

User-Agent: *
Disallow: /

Entfernst Du diese beiden Zeilen, kann Deine Seite wieder gecrawlt und damit auch indexiert werden. Ihr könnt Eure robots.txt Datei recht einfach auslesen. Da diese frei zugänglich sein muss, müsst Ihr nur hinter Eurer Domain  bzw. Startseite ein /robots.txt anhängen und könnt damit mal überprüfen, welche Verbote hier ggf. hinterlegt sind.  Hier seht Ihr mal wie das aussehen könnte. https://www.121watt.de/robots.txt und hier könnt Ihr euch auch mal unsere robots.txt ansehen. Üblicherweise schliesst man zum Beispiel Seiten wie

Mehr zur robots.txt und welche Seiten Ihr hier ausschließen sollte und welche auch besser nicht findet Ihr hier.

Du hast lediglich Googles Crawler per robots.txt ausgesperrt

Es ist mit der robots.txt auch möglich, Crawler spezifisch auszusperren. In diesem Falle lautet der Eintrag beispielsweise:

User-Agent: Googlebot
Disallow: /

Entfernst Du diesen Eintrag, kann fröhlich weiterindexiert werden.

Deine Pagination ist SEOseitig nicht korrekt eingestellt

Falls eine Unterseite Deines Projekts nicht erreichbar ist, kann das daran liegen, dass die Pagination mit nofollow belegt ist. Zusätzlich sollte man hier auch noch das rel=“next“ und rel=“prev“ Attribut in den HTML-head integrieren. Der Crawler kann so noch besser die weiter tiefer gelegenen Unterseiten erfassen. Eine Dokumentation dazu, findest du unter diesem Link.

Einzelne Links stehen auf nofollow

Es ist ebenso möglich, dass einzelne Links per nofollow nicht erreichbar sind. Du kannst das überprüfen, indem Du den Head Deiner Seite nach folgender Sequenz durchsuchst:

<meta name="robots" content="nofollow" />

Die URL wurde mittels Search Console entfernt

Vielleicht hast Du Böses über einen Mitbewerber geschrieben oder wurdest Opfer eines Trolls. Am Ende wurde von jemandem beantragt, dass Deine Seite aus dem Index entfernt wird. Um das herauszufinden, log Dich in die Search Console ein und klicke auf „Entfernte URLs“. Taucht dort keine URL auf, ist dies jedenfalls nicht der Grund für die Unauffindbarkeit Deiner Seite.

URL wurde in der Search Console entfernt

Ist deine Seite immer noch nicht zu finden?

Natürlich ist es möglich, dass keiner dieser Fehler Auslöser einer mangelnden Indexierung ist. Die oben genannten Ursachen decken allerdings die häufigsten Fehlerquellen ab. In jedem Fall solltest Du nicht in Panik verfallen, wenn Dein Projekt plötzlich nicht mehr in den SERPs auftaucht. Nimm Dir eine Tasse Kaffee und geh diesen Artikel Schritt für Schritt durch. Ich bin sicher, Du findest die Lösung – falls nicht, besuche mich in einem meiner Technical SEO Seminaren oder frage mich auf Twitter & Co. 😉

Die nächsten freien Technical-SEO-Seminar Termine:

  1. Design Offices – Arnulfpark
    Design Offices – Arnulfpark
    Luise-Ullrich-Str. 20
    80636 München
    08.08.2018 - 09.08.2018
    Tag 1: 10:00 Uhr - 18:00 Uhr
    Tag 2: 09:00 Uhr - 17:30 Uhr
    München
    mit Kai Spriestersbach
    1295,- €*
    Jetzt anmelden
  2. Fast Lane Institute for Knowledge Transfer
    Fast Lane Institute for Knowledge Transfer
    Gasstraße 4a
    22761 Hamburg
    03.09.2018 - 04.09.2018
    Tag 1: 10:00 Uhr - 18:00 Uhr
    Tag 2: 09:00 Uhr - 17:30 Uhr
    Hamburg
    mit Alin Radulescu
    1295,- €*
    Jetzt anmelden
  3. Design Offices – Barckhausstraße
    Design Offices – Barckhausstraße
    Barckhausstraße 1
    60325 Frankfurt am Main
    19.09.2018 - 20.09.2018
    Tag 1: 10:00 Uhr - 18:00 Uhr
    Tag 2: 09:00 Uhr - 17:30 Uhr
    Frankfurt am Main
    mit Alin Radulescu
    1295,- €*
    Jetzt anmelden
* zzgl. USt.
  • Legende:
  • Ausreichend freie Plätze.
  • Wenige freie Plätze!
  • Leider ausgebucht.

Wie hilfreich war dieser Artikel für dich?

Vielen Dank

2 Kommentare zu “Warum ist meine Seite nicht bei Google zu finden?”

  1. Jörg

    16.08.2016 um 23:10 Uhr

    Hallo :),

    die Webseite hier ist total witzig. Aber eine Sache verstehe ich nicht. Wenn oben nicht die Lösung steht, was soll man in deinen Seminaren? Trinken wir dort in Ruhe Kaffee und lernen wir Milch einschütten oder besser einen Ausrufe-Crashkurs: Sehhhhh Ohhhhh

    In diesem Sinne
    Alles Gute
    Jörg

    P.S: Falls Du noch eine korrekte Antwort finden solltest, schreib mir eine Mail bitte!

    • Christian Steinbrich

      18.08.2016 um 09:43 Uhr

      Hallo Jörg,

      dieser Artikel ist nur ein kleines und sehr spezielles Thema im Bereich der SEO. Ein ganzes Seminar soll und kann er auch gar nicht ersetzen. Er soll denen, die nach diesem Problem suchen und uns dabei finden, helfen, die Antwort zu erfahren. Ich hoffe, dass uns das auch gelingt.

      Unsere Seminare dauern 8, respektive 16 Stunden. Sei versichert, dass die dort behandelten Themen umfassend behandelt werden.

      Kaffee gibt es dort übrigens auch. Mit und ohne Milch.

      Auch Dir alles Gute
      Christian

Deine Meinung zählt, schreibe uns einen Kommentar!

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.