Hier stellen wir euch in Form von Cases einige Projekte vor, auf die wir besonders stolz sind.

Warum den Google Index bereinigen?

Die Bereinigung des Google Index ist eine wichtige SEO Aufgabe, deren ordentliche Erledigung positive Auswirkungen auf die Ranking-Positionen hat. Im folgenden Beitrag erfahrt Ihr, welche Aspekte für eine Bereinigung des Index sprechen und wie man dies am effektivsten macht.

Duplicate Content

Jede Seite eines Webprojekts hat eine URL. Je nach eingesetzter Software (CMS, Onlineshop) können durch eine unüberlegte Programmierung Dubletten einer Seite entstehen, sprich Kopien des vorhandenen Contents. Google verschwendet Rechenleistung und Speicherkapazität um mehrfach vorhandenen Inhalt zu crawlen und zu indexieren. Halten wir Google davon ab mehrfach vorhandene Seiten zu crawlen und zu indexieren wird das unsere Rankingposition verbessern.

404 Error Seiten

404 Fehlermeldungen werden vom Server ausgegeben wenn eine Seite nicht erreichbar ist. Das kann passieren, wenn interne oder externe Links auf nicht vorhandene Inhalte verweisen. Ist das der Fall, gibt der Server die Fehlermeldung „404 – Seite nicht gefunden“ aus. Dies hat einen schlechten Usability Einfluss und ist ein Zeichen für eine nicht ausreichend gepflegte Webseite. Treten zu viele 404 Fehlermeldungen auf, wird das in den Google Webmastertools als Warnung vermerkt.

Irrelevanter Content

Wie bereits erwähnt ist es für Google besonders wichtig den Usern ein optimales Sucherlebnis zu bieten und mit eignen Ressourcen ökonomisch umzugehen. Es ist somit nicht empfehlenswert zu viele irrelevante Unterseiten indexieren und crawlen zu lassen, sondern nur die, die dem User einen Nutzen bringen. Das sind Seiten mit einzigartigem und nützlichem Inhalt. Negativbeispiele sind die bereits erwähnten Duplicate Content Seiten, Archivseiten, Kategorie Seiten mit mehreren Folgeseiten (Paginationsseiten), um nur einige zu nennen. Solche Seiten haben meistens den gleichen oder einen sehr ähnlichen Inhalt (Content) wie andere Seiten auch. Sie weisen zudem den gleichen HTML-Titel und die gleiche Meta Description auf. Solche bringen keinen zusätzlichen Nutzen. Sie sollten somit vom Crawlen und Indexieren durch die Suchmaschine ausgeschlossen werden.

Wie bereinigt man den Google Index?

Die Beseitigung ungewollter Seiten ist ganz klar eine Fleißaufgabe. Als erstes müssen die Übeltäter identifiziert und bewertet werden.

1. Daten Sammeln

Die erste Herausforderung liegt in der Sammlung notwendiger Daten. Im Folgenden findet Ihr bewährte Datenquellen die helfen, mögliche Schrottseiten ausfindig zu machen.

a. Datenquelle – Google Webmaster Tools

Die Google Webmaster Tools sollten für jeden SEO eine der zentralen Anlaufstellen sein, um Informationen über die Webseite zu sammeln. Hier wird auf Duplicate Content, 404 Fehlermeldungen und sonstige HTML Fehler aufmerksam gemacht.

b. Die Google „Site:“ Abfrage – Indiz für Duplicate Content

Gibt man in die Suchzeile die folgende Abfrage ein ’site:beispieldomain.tld’ so erhält man eine Auflistung der meisten indexierten Seiten. Hier kann man manuell überprüfen welche Seiten nicht im Index zu finden sein sollten.

c. Wertvolle Datengrundlage – SEO Onpage Tools

SEO Onpage Tools wie z.B. Onpage.org, der Sistrix Optimizer oder Xovi geben ebenfalls wertvolle Informationen über Duplicate oder irrelevanten Content.

2. Indexierte Daten Bewerten

Nachdem wir die Datenquellen fokussiert und die Daten gesammelt haben kommt es zu der schwierigsten Aufgabe – die Daten bewerten. Am Anfang des Artikels wurde eruiert welche Arten von Seiten nicht im Index enthalten sein sollten. Im Folgenden werden einige Indikatoren genannt, welche Google Suchergebnisse in diese Kategorien fallen könnten. Die Grundlage bildet die Erwähnte ’SITE:’ Abfrage sowie die oben genannten Datenquellen.

Gleiche HTML-Titel und / oder Meta-Description zeugen von Duplicate Content

Betrachtet man die Suchergebnisse, so fällt es auf, dass es zu viele gleiche Snippets gibt. Das kann entweder ein Indikator für Duplicate Content (Entfernen) oder eine schlechte Programmierung der Seite sein (Jede Seite sollte neben einem einzigartigen Content einen einzigartigen Snippet haben). Hierzu geben neben der „SITE:“ Abfrage die Onpage-Tools wertvolle Auskunft.

Dynamische URLs – mögliche Anzeichen für Duplicate Content

Dynamische URLs können ein Anzeichen für Duplicate Content (DC) sein, da es bei schlecht programmierten CMS mehrere dynamische URLs zum gleichen Inhalt geben kann. Somit solche URLs vermieden und durch suchmaschinenfreundliche URLs ersetzt werden. Neben der DC Problematik werden dynamische URLs von Google schlechter gecrawlt und sehen für den User weniger ansprechend aus.

Weitere unerwünschter Index-Content

Neben der „SITE:“ Abfrage sollte man die Daten anderer Quellen zur Bewertung heranziehen. Es gibt keine SEO-Tools die diese Aufgabe für uns vollständig übernehmen können. Die meisten von ihnen liefern sehr wertvolle Indikatoren und Verbesserungsvorschläge. Das blinde Befolgen dieser kann unter Umständen mehr schaden als nutzen – also immer den eigenen Verstand bemühen und bei Unsicherheit uns fragen

404 Fehler identifizieren

Diese Seiten werden in den Webmaster Tools gemeldet. Weitere Quellen sind die angesprochenen SEO Tools oder Webseiteninterne Plugins die auf die Serverlogs zugreifen.

3. Unerwünschte Index-Daten bereinigen

Wurden die Übeltäter identifiziert, so müssen diese aus dem Index verbannt werden. Hierzu gibt es zwei Methoden. Methode 1– das Setzen eines „No-Index“ Attributs auf der zu entfernenden Seite. Durch diese Methode werden die Seiten durch Google automatisch entfernt. Das kann jedoch einige Zeit dauern. Möchte man die Seiten möglichst schnell aus dem Index entfernen so eignet sich hierfür die Methode 2 – die manuelle Entfernung durch die Webmaster-Tools.

Leider kenne ich keine automatische Maßnahme um diese Schritte in einem Rutsch zu erledigen. Es heißt also viel Geduld aufbringen und jede einzelne URL entfernen. Das kann viel Zeit veranschlagen – aber wozu gibt es Praktikanten 

Voraussetzung für die Methode 2

Jede Seite die entfernt werden soll muss entweder:

• eine 404 Fehlermeldung liefern

• durch eine robots.txt gesperrt sein

• oder ein „No Index“ Attribut enthalten

Sollte eine URL in unseren Augen nicht im Index enthalten sein, liefert sie jedoch einen korrekten Statuscode 200, so muss sichergestellt werden, dass diese durch den Google Spider nicht erreichbar ist.

Zusammenfassung

Die Bereinigung des Index und die präventive Vorbeugung vor dem Crawlen unbrauchbarer Seiten schützt Suchmaschinen Ressourcen und sorgt für eine bessere Nutzererfahrung. Google und andere Suchmaschinen werten das positiv, was einen Einfluss auf die Rankings hat. Somit sollte jeder Webmaster dem gute Rankings wichtig sind in regelmäßigen Abständen den Index von Ballast befreien.

Zusammenfassend sollte folgendes getan werden:

• Unbrauchbare Seiten identifizieren

• Setzen eines „No Index“ Attributs (Automatische Entfernung – langsam)

• Manuelle Entfernung über die Webmaster-Tools (Entfernung binnen Stunden)

Leistungen