121WATT

Haben Sie Fragen?
089 416126990

Warum ist meine Seite nicht bei Google zu finden?

Zum Lesen auf deinem Desktop Erinnerung einrichten »

Keine Artikel mehr verpassen? Jetzt Newsletter abonnieren »

Du hast viel Arbeit in Deinen Content investiert, OnPage SEO betrieben und Links gesammelt. Eigentlich müsste Deine Seite schon längst weit vor den Mitbewerbern ranken, sobald die magischen Keywords fallen. Dummerweise rankt Deine Seite zu überhaupt keinem Suchbegriff. Wenn du deine Ranking überprüfst merkst du schnell, das du keine hast. Egal welchen Suchbegriff du eingibst oder auch über SEO-Tools überprüfst du tauchst niemals in den Suchergebnislisten bei Google oder anderen Suchmaschinen auf.

Ganz klar: hier stimmt etwas grundsätzlich nicht. Bevor Du also jemanden fragst oder beauftragst, lies am besten weiter und prüfe, ob einer der folgenden Gründe für die Unsichtbarkeit Deines Projekts vorliegt. Ich bin sicher, Du findest, was Du suchst.

Google hat Deine Seite noch nicht indexiert

Auch Google braucht Zeit. Wenn Deine Seite also erst innerhalb der letzten 24 Stunden gelauncht wurde, kannst Du davon ausgehen, dass noch ein paar Stunden oder Tage ins Land ziehen, bevor Du sie als Suchergebnis bewundern kannst.

Tipp: Mach es Google einfach, Deine Seite zu crawlen. Dazu hinterlegst Du am besten beim Launch eine XML Sitemap in der Search Console (ehemals Webmaster-Tools). Wenn eine Seite besonders schnell indexiert werden muss, kannst Du das „Abruf wie durch Google“-Feature nutzen. Die Nutzung einer XML Sitemap ist aber in jedem Falle die gründlichere Variante.

Abruf wie durch Google-Feature in der Search Console

Google kann Deine Seite nicht finden

Handelt es sich um eine Unterseite, kann es sein, dass sie nicht korrekt oder gar nicht verlinkt ist. Vielleicht fehlt sie auch in der XML Sitemap. Ersteres macht es Google schwierig, die Seite zu crawlen. Das Fehlen in der XML Sitemap zögert das Ganze nur heraus.

Dein Canonical-Tag verweist auf eine andere URL

Mit dem Canonical-Tag (rel=canonical) kann man dafür sorgen, dass bei mehreren URLs mit gleichem oder ähnlichem Inhalt nur eine URL (Quelle) zur Indexierung verwendet wird. Dadurch entgeht man den Nachteilen von Duplicate Content. Wenn nun also, zum Beispiel nach einem Relaunch, das Canonical auf eine andere URL verweist, führt das dazu, dass nicht korrekt indexiert werden kann.

Du wurdest Opfer von Malware oder Hijacking

Hierauf wirst Du in der Search Console (Webmaster-Tools) meistens hingewiesen. Wirf deshalb immer einen Blick auf Benachrichtigungen oben rechts oder schau Dir die Sicherheitsbenachrichtigungen in der linken Navigation an. Alternativ dazu empfehle ich dir den Anti-Malware SaaS Sucuri – dieser Dienst überwacht deine Website ständig und informiert dich bei Problemen und hilft bei der Lösung!

Du hast zuviel Duplicate Content

Wenn Du Content bereitstellst, der so exakt oder sehr ähnlich auf einer anderen Seite zu finden ist, wird Google diese Seite zwar indexieren, aber wahrscheinlich nicht dort anzeigen, wo du ihn gerne hättest. Der Grund: dieser Content ist nicht einzigartig. Das passiert besonders häufig bei Produktbeschreibungen in Online-Shops oder Facetten-Navigationen.

Tipp: Du kannst leicht herausfinden, ob Du Duplicate Content bereitstellst, indem Du einen Satz aus dem fraglichen Text nimmst und in Anführungszeichen bei Google suchst oder deine URL bei Copyscape auf DC überprüfst.

Du hast Google per noindex ausgesperrt

Möglicherweise hindert das Meta-Tag „Robots“ mit dem Wer „noindex“ Google daran, Deine Seite zu indexieren. Möchtest Du das ändern, entferne noindex und Seite 1 sollte nichts mehr im Wege stehen.

Hinweis: Der noindex-Befehl befindet sich im Head-Bereich Deiner Website und sollte ungefähr so aussehen:

<meta name="robots" content="noindex" />

Du hast Crawler per robots.txt generell ausgesperrt

Wenn sich im Rootverzeichnis Deiner Domain eine Datei namens robots.txt befindet, welche die folgenden Zeilen beinhaltet, hast Du sowohl Googles Crawler als auch allen anderen Crawlern die Sicht auf Deine Seite verwehrt:

User-Agent: *
Disallow: /

Entfernst Du diese beiden Zeilen, kann Deine Seite wieder gecrawlt und damit auch indexiert werden.

Du hast lediglich Googles Crawler per robots.txt ausgesperrt

Es ist mit der robots.txt auch möglich, Crawler spezifisch auszusperren. In diesem Falle lautet der Eintrag beispielsweise:

User-Agent: Googlebot
Disallow: /

Entfernst Du diesen Eintrag, kann fröhlich weiterindexiert werden.

Deine Pagination ist SEOseitig nicht korrekt eingestellt

Falls eine Unterseite Deines Projekts nicht erreichbar ist, kann das daran liegen, dass die Pagination mit nofollow belegt ist. Zusätzlich sollte man hier auch noch das rel=“next“ und rel=“prev“ Attribut in den HTML-head integrieren. Der Crawler kann so noch besser die weiter tiefer gelegenen Unterseiten erfassen. Eine Dokumentation dazu, findest du unter diesem Link.

Einzelne Links stehen auf nofollow

Es ist ebenso möglich, dass einzelne Links per nofollow nicht erreichbar sind. Du kannst das überprüfen, indem Du den Head Deiner Seite nach folgender Sequenz durchsuchst:

<meta name="robots" content="nofollow" />

Die URL wurde mittels Search Console entfernt

Vielleicht hast Du Böses über einen Mitbewerber geschrieben oder wurdest Opfer eines Trolls. Am Ende wurde von jemandem beantragt, dass Deine Seite aus dem Index entfernt wird. Um das herauszufinden, log Dich in die Search Console ein und klicke auf „Entfernte URLs“. Taucht dort keine URL auf, ist dies jedenfalls nicht der Grund für die Unauffindbarkeit Deiner Seite.

URL wurde in der Search Console entfernt

Ist deine Seite immer noch nicht zu finden?

Natürlich ist es möglich, dass keiner dieser Fehler Auslöser einer mangelnden Indexierung ist. Die oben genannten Ursachen decken allerdings die häufigsten Fehlerquellen ab. In jedem Fall solltest Du nicht in Panik verfallen, wenn Dein Projekt plötzlich nicht mehr in den SERPs auftaucht. Nimm Dir eine Tasse Kaffee und geh diesen Artikel Schritt für Schritt durch. Ich bin sicher, Du findest die Lösung – falls nicht, besuche mich in einem meiner Technical SEO Seminaren oder frage mich auf Twitter & Co. 😉

Wie hilfreich war dieser Artikel für dich?

Vielen Dank

0 Kommentare zu “Warum ist meine Seite nicht bei Google zu finden?”

  1. Jörg

    16.08.2016 um 23:10 Uhr

    Hallo :),

    die Webseite hier ist total witzig. Aber eine Sache verstehe ich nicht. Wenn oben nicht die Lösung steht, was soll man in deinen Seminaren? Trinken wir dort in Ruhe Kaffee und lernen wir Milch einschütten oder besser einen Ausrufe-Crashkurs: Sehhhhh Ohhhhh

    In diesem Sinne
    Alles Gute
    Jörg

    P.S: Falls Du noch eine korrekte Antwort finden solltest, schreib mir eine Mail bitte!

    • Christian Steinbrich

      18.08.2016 um 09:43 Uhr

      Hallo Jörg,

      dieser Artikel ist nur ein kleines und sehr spezielles Thema im Bereich der SEO. Ein ganzes Seminar soll und kann er auch gar nicht ersetzen. Er soll denen, die nach diesem Problem suchen und uns dabei finden, helfen, die Antwort zu erfahren. Ich hoffe, dass uns das auch gelingt.

      Unsere Seminare dauern 8, respektive 16 Stunden. Sei versichert, dass die dort behandelten Themen umfassend behandelt werden.

      Kaffee gibt es dort übrigens auch. Mit und ohne Milch.

      Auch Dir alles Gute
      Christian

Deine Meinung zählt, schreibe uns einen Kommentar!

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.