Haben Sie Fragen?
FAQ
089 416126990

Suche schließen

Warum ist meine Seite nicht bei Google zu finden?

Zum Lesen auf deinem Desktop Erinnerung einrichten »

Keine Artikel mehr verpassen? Jetzt Newsletter abonnieren »

Ihr habt viel Arbeit in eure Inhalte investiert, ihr habt eure Seite optimiert, eine gute logische Struktur entwickelt und viele relevante Links für eure Inhalte bekommen? Eigentlich müsste eure Seite gute Positionen bei Google & Co. haben, nur leider könnt ihr weder über eine eigene Suche oder auch über relevante SEO Tools, wie Searchmetrics oder Sistrix, Rankings erkennen. Wir haben im folgenden Artikel Gründe und Tools zusammengestellt, mit denen ihr überprüfen könnt, aus welchen Gründen eure Seiten nicht über Google gefunden werden können.

#1 Google hat eure Seite noch nicht indexiert

Auch Google braucht Zeit. Wenn ihr also eure Seite erst unlängst live gestellt habt, kann es passieren, das Google eure Seite einfach noch nicht gefunden und indexiert hat. Üblicherweise folgt der Google Crawler bekannten URLs und folgt alle neuen URLs, die Google in diesem Crawl Prozess finden kann. Die letzte bekannte Zahl (2016) ist das Google mehr als 130 Billionen Seiten in seinem Index hat. Und auch wenn Google eine der größten Rechenkapazitäten weltweit besitzt, so priorisiert Google sein Crawling und Indexing.

Tipp: Es gibt eine einfache Möglichkeit, Google neue Seiten, aber auch Änderungen auf euren Seiten mitzuteilen. Ihr geht in die Google Search Console. Unter dem Berichtsreiter Crawling -> Abruf wie durch Google, könnt ihr eure neue Seite durch Google crawlen und indexieren lassen. Mehr dazu findet ihr auch hier.Abruf wie durch Google-Feature in der Search Console

Google kann eure Seite nicht finden

Handelt es sich um eine Unterseite, kann es sein, dass sie nicht korrekt oder gar nicht verlinkt ist. Vielleicht fehlt sie auch in der XML Sitemap. Ersteres macht es Google schwierig, die Seite zu crawlen. Das Fehlen in der XML Sitemap zögert das Ganze nur heraus.

Euer Canonical-Tag verweist auf eine andere URL

Mit dem Canonical-Tag (rel=canonical) kann man dafür sorgen, dass bei mehreren URLs mit gleichem oder ähnlichem Inhalt nur eine URL (Quelle) zur Indexierung verwendet wird. Dadurch entgeht man den Nachteilen von Duplicate Content. Wenn nun also zum Beispiel nach einem Relaunch das Canonical auf eine andere URL verweist, führt das dazu, dass die Ursprungs-URL nicht korrekt indexiert werden kann.

Ihr wurdet Opfer von Malware oder Hijacking

Hierauf werdet ihr in der Search Console (Webmaster-Tools) meistens hingewiesen. Werft deshalb immer einen Blick auf Benachrichtigungen oben rechts oder schaut euch die Sicherheitsbenachrichtigungen in der linken Navigation an. Alternativ dazu empfehle ich euch den Anti-Malware SaaS Sucuri – dieser Dienst überwacht eure Website ständig und informiert euch bei Problemen und hilft bei der Lösung!

Ihr habt zu viel Duplicate Content

Wenn ihr Content bereitstellt, der exakt so oder sehr ähnlich auf einer anderen Seite zu finden ist, wird Google diese Seite zwar indexieren, aber wahrscheinlich nicht dort anzeigen, wo ihr sie gerne hättet. Der Grund: dieser Content ist nicht einzigartig. Das passiert besonders häufig bei Produktbeschreibungen in Online-Shops oder Facetten-Navigationen.

Tipp: Ihr könnt leicht herausfinden, ob ihr Duplicate Content bereitstellt, indem ihr einen Satz aus dem fraglichen Text nehmt und in Anführungszeichen bei Google sucht oder eure URL bei Copyscape auf DC überprüft.

Ihr habt Google per noindex ausgesperrt

Möglicherweise hindert das Meta-Tag „Robots“ mit dem Wert „noindex“ Google daran, eure Seite zu indexieren. Möchtet ihr das ändern, entfernt den Wert „noindex“. Meistens werden diese Einstellungen über eure Content Management Systeme vorgenommen. Hinweis: Der noindex-Befehl befindet sich im Head-Bereich eurer Website und sollte ungefähr so aussehen:

<meta name="robots" content="noindex" />
Ein einfaches Tool, um die falsche Auszeichnung über ein „noindex“ festzustellen ist browseo. Im Folgenden haben wir für euch hier mal ein Screenshot dargestellt, wie das entsprechend aussehen könnte. Neben vielen relevanten Daten, die euch bei der Suchmaschinenoptimierung helfen, wie Titel, Description etc. findet ihr auch weiter unten die Angaben, ob eure Seite auf „index“ oder „noindex“ gesetzt ist.

Noindex mit Browseo Tool überprüfen

 

 

Ihr habt Crawler per robots.txt generell ausgesperrt

Wenn sich im Rootverzeichnis eurer Domain eine Datei namens robots.txt befindet, welche die folgenden Zeilen beinhaltet, habt ihr sowohl Googles Crawler als auch allen anderen Crawlern die Sicht auf eure Seite verwehrt:

User-Agent: *
Disallow: /

Entfernt ihr diese beiden Zeilen, kann eure Seite wieder gecrawlt und damit auch indexiert werden. Ihr könnt rure robots.txt Datei recht einfach auslesen. Da diese frei zugänglich sein muss, müsst ihr nur hinter eurer Domain  bzw. Startseite ein /robots.txt anhängen und könnt damit mal überprüfen, welche Verbote hier ggf. hinterlegt sind. Hier seht ihr mal wie das aussehen könnte. https://www.121watt.de/robots.txt und hier könnt ihr euch auch mal unsere robots.txt ansehen. Üblicherweise schließt man zum Beispiel Seiten wie

  • Seiten mit duplicate content
  • Paginierungs Seiten
  • Dynamische Produkt- und Service Seiten
  • Admin Seiten
  • Warenkorbseiten
  • Chatseiten
  • Vielen Dank Seiten aus.

Mehr zur robots.txt und welche Seiten ihr hier ausschließen solltet und welche auch besser nicht, findet ihr hier.


121-Stunden Online-Marketing Newsletter:
Keine SEO- und Online-Marketing-News mehr verpassen!

  • Wöchentlich aus 500 Quellen die besten Artikel übersichtlich zusammengefasst.
  • Wir berichten regelmäßig über die wichtigsten Branchen-Events und aktuelle Seminare.
  • Bereits mehr als 10.000 Online Marketers verfolgen mit uns die Branche.

Ihr habt lediglich Googles Crawler per robots.txt ausgesperrt

Es ist mit der robots.txt auch möglich, Crawler spezifisch auszusperren. In diesem Falle lautet der Eintrag beispielsweise:

User-Agent: Googlebot
Disallow: /

Entfernt ihr diesen Eintrag, kann fröhlich weiterindexiert werden.

Eure Pagination ist SEOseitig nicht korrekt eingestellt

Falls eine Unterseite eures Projekts nicht erreichbar ist, kann das daran liegen, dass die Pagination mit nofollow belegt ist. Zusätzlich sollte man hier auch noch das rel=“next“ und rel=“prev“ Attribut in den HTML-head integrieren. Der Crawler kann so noch besser die weiter tiefer gelegenen Unterseiten erfassen. Eine Dokumentation dazu findet ihr unter diesem Link.

Einzelne Links stehen auf nofollow

Es ist ebenso möglich, dass einzelne Links per nofollow nicht erreichbar sind. Ihr könnt das überprüfen, indem ihr den Head eurer Seite nach folgender Sequenz durchsucht:

<meta name="robots" content="nofollow" />

Die URL wurde mittels Search Console entfernt

Vielleicht habt ihr Böses über einen Mitbewerber geschrieben oder wurdet Opfer eines Trolls. Am Ende wurde von jemandem beantragt, dass eure Seite aus dem Index entfernt wird. Um das herauszufinden, loggt euch in die Search Console ein und klickt auf „Entfernte URLs“. Taucht dort keine URL auf, ist dies jedenfalls nicht der Grund für die Unauffindbarkeit eurer Seite.

URL wurde in der Search Console entfernt

Ist eure Seite immer noch nicht zu finden?

Natürlich ist es möglich, dass keiner dieser Fehler Auslöser einer mangelnden Indexierung ist. Die oben genannten Ursachen decken allerdings die häufigsten Fehlerquellen ab. In jedem Fall solltet ihr nicht in Panik verfallen, wenn euer Projekt plötzlich nicht mehr in den SERPs auftaucht. Nehmt euch eine Tasse Kaffee und geht diesen Artikel Schritt für Schritt durch. Ich bin sicher, ihr findet die Lösung – falls nicht, besucht mich in einem meiner Technical SEO Seminare oder fragt mich auf Twitter & Co. 😉

Die nächsten freien Technical-SEO-Seminar Termine:

Filter:
|
|
|
Filter:
  1. Design Offices – Arnulfpark
    Design Offices – Arnulfpark
    Luise-Ullrich-Str. 20
    80636 München
  2. Design Offices – Arnulfpark
    Design Offices – Arnulfpark
    Luise-Ullrich-Str. 20
    80636 München
  3. Design Offices – Barckhausstraße
    Design Offices – Barckhausstraße
    Barckhausstraße 1
    60325 Frankfurt am Main
* zzgl. USt.
  • Legende:
  • Ausreichend freie Plätze.
  • Wenige freie Plätze!
  • Leider ausgebucht.

Wie hilfreich war dieser Artikel für dich?

  • nicht hilfreich

    gar nicht hilfreich

  • nicht hilfreich

    weniger hilfreich

  • nicht hilfreich

    eher hilfreich

  • nicht hilfreich

    sehr hilfreich

  • nicht hilfreich

    ich habe ein anderes Thema gesucht

Vielen Dank

2 Kommentare zu “Warum ist meine Seite nicht bei Google zu finden?”

  1. Avatar

    Jörg

    16.08.2016 um 23:10 Uhr

    Hallo :),

    die Webseite hier ist total witzig. Aber eine Sache verstehe ich nicht. Wenn oben nicht die Lösung steht, was soll man in deinen Seminaren? Trinken wir dort in Ruhe Kaffee und lernen wir Milch einschütten oder besser einen Ausrufe-Crashkurs: Sehhhhh Ohhhhh

    In diesem Sinne
    Alles Gute
    Jörg

    P.S: Falls Du noch eine korrekte Antwort finden solltest, schreib mir eine Mail bitte!

    • Avatar

      Christian Steinbrich

      18.08.2016 um 09:43 Uhr

      Hallo Jörg,

      dieser Artikel ist nur ein kleines und sehr spezielles Thema im Bereich der SEO. Ein ganzes Seminar soll und kann er auch gar nicht ersetzen. Er soll denen, die nach diesem Problem suchen und uns dabei finden, helfen, die Antwort zu erfahren. Ich hoffe, dass uns das auch gelingt.

      Unsere Seminare dauern 8, respektive 16 Stunden. Sei versichert, dass die dort behandelten Themen umfassend behandelt werden.

      Kaffee gibt es dort übrigens auch. Mit und ohne Milch.

      Auch Dir alles Gute
      Christian

Deine Meinung zählt, schreibe uns einen Kommentar!

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.