Penguin 4.0 Update: meine Sicht der Dinge

Penguin 4.0 Update: meine Sicht der Dinge

Es ist wieder soweit: google hat ein neues Update ausgerollt bzw. ist noch dabei. Bisher waren die Penguin-Updates temporäre Änderungen, die google immer zu einem Zeitpunkt X ausgerollt hat. Das hatte zur Folge, dass eine mögliche Abstrafung auch nur zu diesem bestimmten Zeitpunkt passierte und Seiten, die davon betroffen waren dann auch erst zum nächsten Update wieder Chancen auf bessere Rankings bekommen haben.

Mit Penguin 4.0 hat sich das nun grundlegend geändert, weil es nun Teil des Cores ist und damit permanent läuft. D.h. bei jedem Recrawl einer URL kann der Penguin zuschlagen, oder eben nicht. Es bedeutet aber auch, dass eine Abstrafung auch mit jedem Recrawl wieder aufgehoben werden könnte, sofern negative Signale vom Webmaster aufgehoben bzw. beseitigt wurden. Kurz gesagt: der Penguin läuft jetzt in „Echtzeit“, wobei „Echtzeit“ sehr relativ ist, denn der Crawler muss ja zunächst die Seiten wieder crawlen. Neu ist auch, dass der Penguin 4.0 Seiten nun granularer bewertet und auf Landingpage- oder Verzeichnisebene abstraft, ohne die gesamte Site zu degradieren. Die original google-Mitteilung findest Du hier: https://webmaster-de.googleblog.com/2016/09/penguin-teil-unseres-kernalgorithmus.html

penguin4-0Das ist auf den ersten Blick für Webmaster und vor allem SEOs natürlich toll und eine riesige Erleichterung, denn nicht immer ist man selber für mögliche schlechte Signale (Links) verantwortlich. Andererseits öffnet der Penguin 4.0 natürlich Tür und Tor für aggressiveres Linkbuilding, denn wenn man schnell und unkompliziert aus einer Penalty wieder heraus kommt, kann man sich natürlich auch eher an Grenzen wagen. Gerade in hochkompetitiven Umfeldern ist das nun sehr interessant. Klar, ist das Geld für die eingekauften Links trotzdem futsch, wenn der Pinguin zuschlägt, aber es gibt sehr viele Bereiche und Keywordsets, in denen vorher ausreichend Geld verdient werden kann. Und sobald der ROI auf den Linkeinkauf trotz kurzfristiger Abstrafung positiv ist, wird es SEOs geben, die nicht zögern werden in alte Pre-Penguin Muster zurück zu fallen.

Warum? Weil Linkearning sehr zeit- und kostenintentsiv ist. Es ist weniger skalierbar und vor allem schlechter planbar. Von daher bin ich hier Martins Meinung, stimme auch Uwe zu und gehe davon aus, dass Linkverkäufern goldene Zeiten bevor stehen. Und es ist ja nicht so, dass es denen bisher schlecht ging: Linkverkauf war auch vor Penguin 4.0 sehr populär, nachdem ein google-Mitarbeiter vor einigen Monaten via Twitter bestätigt hatte, dass Links nach wie vor einer der stärksten Rankingfaktoren sind.

Fragen zum Penguin 4.0

Dennoch bleiben für mich einige Fragen zum aktuellen Penguin 4.0 Update offen.

  1. google spricht in der Mitteilung zum Penguin 4.0 von „Spamsignalen“. Vielerorts im Netz wird der Penguin grundsätzlich mit Linkspam gleich gesetzt. Und ja, Linkspam kann den Pinguin auf den Plan rufen, allerdings sind in den Guidelines von google auch zahlreiche andere „Spamsignale“ genannt. Darunter beispielsweise auch Keywordstuffing oder Cloaking. Da stellt sich natürlich die Frage, wie und ob diese doch sehr unterschiedlichen Signale möglicherweise auch miteinander kombiniert werden und erst dann negative Auswirkungen haben?
  2. google sagt ganz deutlich, dass die Effekte nach einem Recrawl und Indexierung wirksam werden. Im Bereich Cloaking und Keywordstuffing macht das Sinn, weil es OnPage-Faktoren sind. Wie hoch ist aber eine mögliche Latenz in der Erfassung von neu aufgebauten (vielleicht gekauften) Links?
  3. Wir haben mal in die Logfiles einiger Nebenprojekte geschaut, um zu schauen, ob und wann die das letzte Mal von google-bot komplett gecrawlt wurden. Dabei haben wir einige gefunden, die in den letzten 5 Tagen wirklich komplett gecrawlt wurden und auch vor dem offiziellen Release des Pinguins haben viele Webmaster bemerkt, dass die Crawling-Frequenz deutlich höher war als sonst. Soweit so gut: wir konnten aber keinerlei negative Auswirkungen feststellen, selbst bei Projekten, die schon grenzwertig optimiert wurden. Anderen scheint es auch so zu gehen, denn in den Sozialen Medien wie Facebook und Co. stellen Webmaster vermehrt die Frage, ob schon jemand klare Penguin-Opfer gesehen hat. Was ist also eine Abstrafung nach Penguin 4.0 denn nun genau? Sind Positionsverluste aus den Top3 in den unteren Bereich von SERP 1 möglicherweise auch schon eine Penguin-Auswirkung? Denn wie wir alle wissen, ist das tatsächlich eigentlich Strafe genug, denn mit allen google-eigenen Integration wie Antwortboxen, News, Videos, Bildern, Knowledgegraph, oder Spezialangeboten wie Events, Songs, Flüge und Hotels rücken die organischen Ergebnisse auf der ersten Suchergebnisseite trotz Top10-Position soweit nach under the fold, dass die CTR gegen Null geht. Oder ist eine Abstrafung wie in den guten alten Zeiten eine Herabstufung der betreffenden Seite auf Positionen >30?
  4. Keywordstuffing wird in den Guidelines ebenfalls als Spamsignal aufgeführt: gilt das auch für die exzessive Nutzung von harten Anchortexten in der internen Verlinkung? Ich habe aktuell Beispiele, bei denen aus dem Content heraus in jedem Abschnitt ein und derselbe interne Link (insgesamt 6-mal) mit einem generischen Keyword auf die betreffende (und wiederum überoptimierte) Landingpage zeigt. Mit großem Erfolg! Und da ich diese Seite laufend im Rahmen der Wettbewerbsbeobachtung sondiere kann ich nur soviel sagen: ich habe dieses massive Stuffing vom ersten Tag an bemerkt und verfolgt. Alle anderen Faktoren und KPIs scheiden als Rankingpusher aus. Können sich große Brands also nach wie vor mehr leisten, als der kleine Webmaster oder Affiliate?
  5. Alte Pinguin-Opfer sollen mit diesem Core-Update eine neue Chance bekommen. Ich kenne da so einige und habe selber auch 2 oder 3 solcher Projekte im Portfolio, habe aber noch kein einziges gesehen, was sich erholt hat. Trotz Linkabbau und Disavow ist da null Bewegung drin. Weder nach oben, noch nach unten. Auch bei Projekten, die wir nicht versucht haben zu recovern, (verständlicherweise) keine Änderungen. Und ja: wir haben die Logfiles angeschaut, der Crawler war da und hat alles soweit neu mitgenommen. Hat google hier absichtlich jede Menge Zeitversatz einkalkuliert und die Messbarkeit zu erschweren?
  6. Wie Julian richtig festgestellt hat, geht die einhellige Meinung bezüglich des Haupttriggers für eine Penguin-Abstrafung Richtung „optimierte Anchortexte bei eingehenden Links“. Bei den älteren Penguin-Updates würde ich das sofort unterschreiben, beim 4.0er bin ich mir nicht ganz sicher: ich habe viele Seiten auf dem Radar, die nach wie vor exzessiv hart von außen verlinken! Dazu noch über sehr offensichtlichen Linkeinkauf generierte Verweise. Die sind aber fast alle noch auf den alten guten Positionen. Ist dieses Kriterium wieder ein wenig zurückgestuft worden in der Priorisierung und Wichtigkeit? Oder ist trotz der angesagten Core-Integration eigentlich noch nicht wirklich viel passiert? Sammelt die Integration gerade noch Daten und ist zwar offiziell ausgerollt, aber die Effekte werden erst viel später sichtbar?

Für mich ist das alles noch viel zu undurchsichtig (und wird es vermutlich auch in vielen Bereichen bleiben). Ich verlasse mich aber nur ungerne auf irgendwelche Ankündigungen und offiziellen Statements. Gerade seitens google habe ich in den vergangenen 15 Jahren so manche „Nebelbombe“ gehört und gesehen. Ich glaube an Fakten und bisher sehe ich die einfach noch nicht. Oder ich erkenne sie nicht, weil die neuen 4.0-Abstrafungen viel subtiler ablaufen.

Wie geht es Euch? Was denkt Ihr über das neue Update und vor allem: kennt Ihr Opfer, seht Ihr irgendwo klare Impacts, die auf Penguin 4.0 zurück zu führen sind?

Bildquelle: Sibylle Hardt @ pixelio

weitere Artikel zum Penguin 4.0 Update:

weitere Artikel aus unserem Content Marketing Blog

Kommentare

  • Wolfgang Jagsch

    Du hast schon irgendwie Recht. Die großen Verwerfungen passierten eher davor. Nachträglich wird was angekündigt. Bei den vielen Updates weiß man nicht mehr genau, was eigentlich wie wirkt. Ich sehe jedoch bei unseren Kunden einen sehr positiven Trend. Wenn man im Bereich Links, Technik und Content sauber arbeitet, dann passiert auch nichts Negatives. Einschnitte gab es bei jenen Projekten, wo unsauber gearbeitet wurde bzw. vorrangig SPAM produziert wurde. Was bei uns nicht der Fall war. Bereits Pinguin 3.0 brachte Einschnitte für Spamer. Dies ist jetzt nichts anderes.

  • […] Sacotte: Penguin 4.0 Update: meine Sicht der Dinge – profundes vom SEO […]

jetzt kommentieren

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.