Machen Sie nicht diesen Fehler: So verlieren Firmen ihr Google-Ranking, wenn sie ihre Webseite umstellen.

In diesem Interview mit unserem SEO-Experten Kai erklärt er, warum 301-Weiterleitungen bei der Neugestaltung einer Webseite so wichtig sind. Und warum die Seitenbetreiber sie leider viel zu oft vergessen.

Kai ist bereits seit 7 Jahren bei uns. Zu seinen Aufgaben gehört die Optimierung von Webseiten mit dem Ziel der besseren Auffindbarkeit in Suchmaschinen.

Neulich im Teammeeting merkte Kai an, dass immer wieder Kunden zu uns kommen, die einen Relaunch ihrer Webseite gemacht haben und plötzlich einen starken Abfall ihres Google-Rankings verzeichnen. 

Das hat mich genauer interessiert, weshalb ich Kai im Anschluss um ein Interview bat:

Betty: Hallo Kai, kannst du mir das Problem bitte nochmal genauer erklären?

Kai: Klar. Es ist so: Google schickt regelmäßig Crawler durch’s Internet, die Seiten abtasten. So indexiert Google jede Webseite mit allen Unterseiten. Je nach Webseite kommt der Crawler in unterschiedlichen Abständen vorbei und schaut nach, ob sich etwas verändert hat. Wenn man eine Seite neu gestalten möchte, sollte man unbedingt vorher die gesamte Link-Struktur exportieren. Dafür gibt es Tools, die das Ganze in eine CSV-Datei exportieren. In Spalte A stehen dann alle bisherigen URLs der Seite. In Spalte B trägt der Webseitenbetreiber ein, wie die Links auf der neuen Seite heißen. Vielleicht haben sich Inhalte verändert, dann muss der Kunde schauen, welche neue Unterseite am besten passt. Aber auf jeden Fall muss diese Struktur erstellt werden, damit keine bereits indexierten Seiten ins Leere laufen.

Betty: Warum weiß das denn keiner?

Kai: Das wüsste ich auch gerne. Meistens geben die Kunden die Neugestaltung der Webseite in die Hände von externen Webdesignern. Dann höre ich immer wieder “Die haben mir versichert, dass sie SEO berücksichtigen”. Aber ich habe noch nie Webdesigner getroffen, die sich tatsächlich gut mit SEO auskennen. Allerhöchstens ist bekannt, dass wichtige Keywords in den Seitentexten auftauchen sollten. Doch das technische SEO wird komplett vernachlässigt. Wenn ich auf Seiten schaue, sehe ich zum Beispiel, dass viele Kunden es seit Jahren verpasst haben, ein tolles Ranking bei Google aufzubauen. Denn sie werden gar nicht von Google gecrawlt, weil die robots.txt dies blockiert!

Betty: Was genau ist das?

Kai: Ich habe ja schon die Google-Crawler erklärt. Wenn ein Crawler eine Seite aufruft, liest er immer zuerst die “robots.txt”. Hier kann man festlegen, welche Seiten von welchen Crawlern besucht werden dürfen. Oder eben auch generell alle Crawler überall ausschließen.. 

Betty: Und wieso sollte man das wollen?

Kai: Das macht man eigentlich so, wenn an der Seite gerade noch gearbeitet wird. Als wir zum Beispiel unseren Relaunch letztes Jahr hatten, war die neue Seite schon online für Tests, konnte aber noch nicht von Google gefunden werden. So halten sich Webseiten, die noch nicht bereit für die Öffentlichkeit sind, sozusagen noch versteckt.

Betty: Und dann wird bei der Veröffentlichung vergessen, die robots.txt anzupassen?

Kai: Leider ja, das habe ich jetzt schon mehrfach gesehen. So kann Google dann nichts indexieren und die Kunden wundern sich, warum sie sich bei relevanten Keywords nicht in der Suche finden. 

Betty: Habe ich es jetzt richtig verstanden, dass die 301-Weiterleitung bei neu gestalteten Webseiten so ähnlich funktioniert wie ein Nachsendeauftrag bei der Post, wenn man umzieht?

Kai: Das ist ein ziemlich guter Vergleich. Also, wenn man sich in dem Fall vorstellt, dass ein ganzer Gebäudekomplex mit allen Wohnungen auf einmal umzieht und man für jeden einzelnen Namen einen Nachsendeauftrag macht. Aber im Prinzip genau so. Wenn das nächste Mal Post kommt und nur festgestellt wird, dass hier niemand mehr wohnt, wandert die Post zurück an den Absender und es gibt eine Fehlermeldung. Wenn es aber den Nachsendeauftrag gibt, wird trotz Umzug noch jeder weiter gefunden und es gibt keine Probleme.

Betty: Was bedeutet eigentlich der Zahlencode 301?

Kai: Das sind HTTP-Statuscodes. Den Code 404 kennt wahrscheinlich jeder. Er bedeutet “Seite nicht gefunden” (page not found). Und genau diese Fehlermeldung würde ein Google Crawler auch bekommen, wenn keine Weiterleitung eingerichtet ist und er wieder auf der Seite landet. Dann schmeißt er als logische Konsequenz diese Seite aus dem Index. Denn Google geht es ja um die Relevanz der Suchergebnisse für das, was Leute im Internet suchen. Da wäre es fatal, wenn ein Suchergebnis auf eine Seite mit Fehlermeldung führen würde. Der Code 301 bedeutet “dauerhaft umgezogen” (permanently moved). Das ist dann der Nachsendeauftrag, wie du meintest, und es gibt kein Problem. Google versteht, dass es sich weiter um die Seite mit dem guten Ranking handelt, nur jetzt mit einer anderen URL.

Betty: Wenn die 301-Weiterleitung nun aber vergessen wurde, gibt es dann noch eine Chance das Ranking zu retten?

Kai: Das wird schwierig und es kommt auf Schnelligkeit an. Man hat wirklich nur ein Zeitfenster von bestenfalls wenigen Tagen, unter Umständen auch weniger als einen Tag. Wenn der Crawler schon ein Mal über die neue Seite mit der Fehlermeldung drübergewandert ist, war’s das. Manchmal haben Kunden die alte Seite zumindest noch auf einer Subdomain liegen, dann kann man die CSV-Datei noch erstellen und über ein Plugin zur neuen Seite hochladen. Aber meistens ist es wirklich zu spät. Leider. Dann helfen wir den Kunden natürlich auch mit unseren SEO-Techniken wieder auf einen guten Rang zu kommen. Aber das braucht dann eben Zeit.

Betty: Dann hoffen wir mal, dass wir jetzt einige Seitenbetreiber, die gerade einen Relaunch planen, auf dieses Problem aufmerksam machen konnten, sodass ihnen das nicht passiert.

Kai: Das hoffe ich auch.