Das Google Penguin Update wurde erstmals im April 2012 veröffentlicht und bezeichnet eine Reihe von Algorithmus-Updates und Data Refreshs zur Vermeidung von Webspam. Der Google Ranking-Algorithmus mit dem unscheinbaren Kodenamen „Penguin“ zielt darauf, Webseiten ausfindig zu machen und abzuwerten, die mit unlauteren Methoden wie beispielsweise dem Kauf von Links oder der übermäßigen Platzierung in Linknetzwerken die Suchergebnisse vollspammen.
Inhaltsverzeichnis
- Was ist das Google Penguin Update?
- Versionsgeschichte
- Penguin 4.0 fester Bestandteil des Google Algorithmus
- Die Kernthemen des Penguin Updates
- Keyword Stuffing
- Unnatürliche Backlinkmuster
- Linkkauf
- Minderwertige Backlinks
- Cloaking
- Fazit: Der Penguin liebt Natürlichkeit!
Was ist das Google Penguin Update?
Das Penguin Update ist mehr oder minder die „Offpage“ Ergänzung zum bereits 2011 veröffentlichten Google Panda Update. Während es bei Letzerem darum geht, den Content einer Webseite zu bewerten und dessen Gewichtung im Suchmaschinen Ranking zu stärken, liegt der Fokus beim Penguin Update auf der Erkennung von Web-Spam, der einzig das Ziel verfolgt, eine Seite künstlich im Ranking zu pushen.
Der Penguin-Algorithmus erkennt:
- Unnatürliche Backlinkmuster z.B. durch den Kauf von Links oder Linknetzwerke
- Keyword Stuffing durch eine unnatürliche (übermäßige) Platzierung von „harten“ Keywords
- Cloaking (= sog. Verhüllen, eine Technik zur Suchmaschinenoptimierung, bei der dem Webcrawler der Suchmaschine unter derselben URL ein anderer Inhalt ausgegeben wird, als dem Nutzer)
- Weitere Webspam-Techniken, um eine möglichst hohe Position in den Suchergebnissen zu erzielen
Die prozentuale Menge an von Webspam betroffenen Suchanfragen war von Land zu Land unterschiedlich – meist lag sie bei ca. 3-5 Prozent. Durch das Penguin Update konnten diese Suchanfragen weitgehend bereinigt und damit die Qualität der Suchtreffer auch für die Zukunft spürbar verbessert werden.
Versionsgeschichte
Das erste Penguin Algorithmus-Update (Penguin 1.0) wurde am 24. April 2012 weltweit für alle Sprachen ausgerollt. Im Anschluss daran gab es fünf weitere, offizielle Penguin-Updates:
- Penguin 1.1 am 24. Mai 2012: Data Refresh, von dem nur sehr wenige Websites betroffen waren.
- Penguin 1.2 am 5. Oktober 2012: Data Refresh mit kleinen Anpassungen.
- Penguin 2.0 am 22. Mai 2013: Algorithmus-Update mit spürbaren Auswirkungen. Laut Google eine technologisch neue Generation des Penguin Filters.
- Penguin 2.1 am 4. Oktober 2013: Data Refresh mit kleinen Anpassungen.
- Penguin 3.0 am 18. Oktober 2014: Trotz neuer Versionskennzahl und mehr als einem Jahr Pause lediglich ein Data Refresh mit kaum messbaren Auswirkungen.
Penguin 4.0 fester Bestandteil des Google Algorithmus
Der Rollout des Penguin 3.0 Updates zog sich über mehrere Monate hin, ohne dass signifikante Verschiebungen in den Rankings messbar waren. Man konnte daraus schließen, dass die Penguin-Filter aus den vergangenen Updates bereits so gut funktionierten, dass es seitens Google keine großen Anpassungen mehr gab bzw. diese offensichtlich auch nicht mehr nötig waren.
Seit September 2016 ist das Penguin Update unter der Versionsnummer 4.0 fester Bestandteil des Google Algorithmus und wird nicht mehr separat ausgerollt.
- Die Bewertung von Spamsignalen erfolgt in Echtzeit. Bei jedem Crawling der Webseite durch den Google Bot erfolgt eine eine Bewertung auf Basis der Penguin-Algorithmen.
- Die Bewertung erfolgt auf Seitenebene und nicht wir bisher auf Domainebene.
Die Integration der Penguin-Filter in den Google Algorithmus bringt für Webmaster erhebliche Vorteile. Zum Einen kann man schnell auf Missstände reagieren und muss nicht auf den nächste Rollout warten, zum Anderen wird bei einem positiven Ausschlag der Filter nicht mehr die gesamte Domain abgestraft.
Die Kernthemen des Penguin Updates
Der Penguin ist eine Art Qualitätsfilter, um die Suchergebnisse in der Google Suche sauber zu halten. Er gilt als Ergänzung zum Google Panda Update und zielt im Kern auf die Erkennung und Abstrafung von Seiten, die mit unlauteren Webspam-Techniken versuchen, sich in den Google Rankings einen Vorteil zu verschaffen:
Keyword Stuffing (Keyword Überoptimierung)
Keyword Stuffing ist eine aus Google-Sicht unerlaubte Technik bei der Suchmaschinenoptimierung, bei der „harte“ Suchbegriffe übermäßig häufig im Seitentitel, META-Daten, Überschriften, Texten, Bilder, Links oder auch versteckten Bereichen platziert werden, um beim Webcrawler den Eindruck zu erwecken, die Seite hätte eine außerordentliche Relevanz zu einem bestimmten Thema.
Mit Hilfe von Keyword Stuffing war es in der Vergangenheit möglich, das Ranking in den Suchergebnissen künstlich zu pushen und somit entgegen dem Bestreben von Google eine hohe Platzierung zu erreichen, auch ohne dass die Seite für den Suchenden inhaltlich einen besonderen Mehrwert bietet. Mit dem Penguin-Update sagte Google diesem Vorgehen den Kampf and und straft Webseiten, die diese Technik verwenden, rigoros ab! In Einzelfällen führt es „lediglich“ zu einem Ranking-Verlust der betroffenen Seite, im schlimmsten Fall (wenn Methode dahintersteckt) kann es jedoch zu einer automatisierten Abstrafung der gesamten Webseite bis hin zu einer manuellen Maßnahme durch Google führen.
Unnatürliche Backlinkmuster
Das Thema Linkbuilding und die damit verbundenen (meist unnatürlichen) Backlinks zur eigenen Webseite sind ein Thema, mit dem sich Google schon seit langer Zeit beschäftigt: Je mehr externe Links zu einer Webseite führen, desto populärer wird diese bei den Suchmaschinen (so zumindest der Grundgedanke).
In seiner Einführung in Suchmaschinen gibt Google unter anderem an, dass einem natürlichen Linkaufbau grundsätzlich erst einmal nichts im Wege steht, so lange dieser nachvollziehbar bleibt und keine unnatürlichen Linkstrukturen festgestellt werden. Google ist sich darüber bewusst, dass jeder Seitenbetreiber danach bestrebt ist, die Inhalte der eigenen Website im Internet zu verbreiten, um so eine höhere Aufmerksamkeit zu erzielen. Was hierbei jedoch ein absolutes No-Go darstellt, ist das vorsätzliche Spammen von Links in Webverzeichnissen, Linknetzwerken oder auch multipler (automatisierter) Link-Spam in Social Bookmark Diensten. Im Grunde genommen also alles, was einzig und allein das Ziel verfolgt, Backlinks zu generieren, die keinerlei Mehrwert mit sich bringen.
Linkkauf
Der Kauf von Links wird von Google nicht gerne gesehen und gehört zu den Kernthemen des Penguin Updates. Dieses Vorgehen widerspricht gänzlich dem eigentlichen Grundprinzip eines Links, dem bekanntermaßen der Wert einer Empfehlung zugesprochen wird. Und obwohl Google hier sehr rigoros vorgeht, gehört es dennoch zu jeder Linkbuilding-Strategie dazu. Wer behutsam vorgeht, sich die Webseite auf denen der Link platziert werden soll sehr genau ansieht (Themenrelevanz, Authorität, Qualität, Spamfaktor, etc.), das Vorhaben in einen gesunden Linkmix integriert und den Link nicht einfach nur stupide platziert sondern in guten Content integriert und den Linktext nicht mit Keywords zuspammt, der hat vor dem Penguin nichts zu befürchten.
Minderwertige Backlinks
Links, die vorwiegend von Webseiten stammen, die selbst keinen großen Mehrwert bieten oder einzig dem Aufbau von Links dienen, bezeichnet man als minderwertige Backlinks. Dasselbe gilt für Links, die an Stellen platziert werden, die keinen anderen Nutzen erfüllen als einen Backlink zu genereieren. Einige Beispiele dafür sind Linkplatzierungen in:
- Artikelverzeichnissen, Linknetzwerken und Webkatalogen
- Blogkommentaren
- Newsaggregatoren
- ungepflegte Presseportale
- Linklisten und Linkfarmen
- Footer
Cloaking
Die meisten werden mit diesem Begriff nichts anfangen können und das ist auch gut so! Cloaking ist eine SEO-Technik, die einzig dazu dient, dem Webcrawler der Suchmaschine unter derselben URL einen anderen Inhalt auszugeben als dem normalen Besucher. Cloaking ist nach den Richtlinien der meisten Suchmaschinen verboten. Auf Sinn und Zweck dieser Methode gehe ich bewusst nicht näher ein. Es sollte jedem sofort klar sein, dass dies als eindeutiger Manipulationsversuch mit harten Strafen gewertet wird. Verstöße, die von Google & Co. entdeckt werden, haben in der Regel einen dauerhaften Ausschluss aus dem Index zur Folge.
Fazit: Der Penguin liebt Natürlichkeit!
Worum es beim Google Penguin Update hauptsächlich geht, ist die relevantere Darstellung von natürlichen und – in Verbindung mit dem Panda Update – qualitativ hochwertigen Inhalten in den Suchmaschinen-Rankings. Es ist durchaus legitim und sogar erwünscht, seine Webseite sowohl OnPage als auch OffPage zu optimieren, so dass Google es leichter hat, die besten Ergebnisse für eine Suchanfragen zu ermitteln. Allerdings sollte diese Optimierung eben in einem ordentlichen Rahmen erfolgen und nicht gleich in wilde Spammerei ausarten.
Bei den Suchbegriffen, zu denen die eigene Webseite gefunden werden soll, muss man als Seitenbetreiber darauf achten, dass die Keywords nicht unnatürlich und im Übermaß platziert werden. Des Weiteren sollten sich die Keywords in einem ordentlichen Textfluss befinden und nicht einfach sinnlos aneinandergereiht werden. Genauso schlimm ist mit Keywords vollgepackter Hidden Content (weiß auf weiß, eingeklappte Textblöcke, Hidden-Content, etc.) der einzig für Suchmaschinen platziert wird und dem Nutzer null Mehrwert bietet. Es gibt diverse Keyword Tools, mit denen man seine Seiten analysieren und optimieren kann.
Auch beim Linkbuilding kommt es einfach nur darauf an, die natürliche Linkstruktur zu wahren. Hier und da ein paar Links aus themenrelevanten Foren, Blogs, Presse- oder Q&A-Portalen sind in Ordnung, so lange sich das Ganze nicht permanent wiederholt. Auch ausgewählte Social Bookmarks können für ein gesundes Linkbuilding genutzt werden. Jeden Tag dutzende Links auf derselben Plattform oder automatisierter Link-Spam fällt auf und wirkt nur kontraproduktiv! Webkataloge, Linknetzwerke und Artikelverzeichnisse gehören längst der Vergangenheit an und spielen in einem guten Linkmix keine bedeutende Rolle mehr. Auch ist es absolut unnatürlich, wenn eine Seite nur dofollow-Backlinks aufweist oder nur Links von Seiten mit einem hohem Pagerank kommen. Ein natürlicher Linkmix ist bunt gemischt ohne feste Struktur und wächst beständig.