Panda und Pinguin – Googles „Wachhunde“

Panda und Pinguin – Googles „Wachhunde“

Etwa 500-600 Mal verändert Google jährlich seine Algorithmen. Meist sind es nur kleine Anpassungen der Suchmaschine, die kaum spürbare Auswirkungen auf die organischen Suchergebenisse haben. Alle paar Monate hingegen kommt es zu einem „Major Update“, das die Suchergebnisse drastisch verändert.

Am 22. Mai 2013 sorgte ein solches „Major Update“ in Form „Penguin 2.0“ für große Unruhen in der SEO-Branche. Wir haben deshalb die wichtigsten Fakten zu den beiden „prominentesten Google Tieren“ zusammengefasst.

http://webhost.pro/blog/wp-content/uploads/2012/07/Panda-Penguin.jpeg

„Link-Fishing“ durch den Pinguin

 

Mit Hilfe des „Penguin-Algorithmus“ sollen überoptimierte Webseiten abgestraft werden. Hierbei stehen die Links im Mittelpunkt. Genauer gesagt geht darum, die „guten“ und „schlechten“ Links einer Webseite zu unterscheiden. Hierzu betrachten Pinguin insbesondere die Link-Texte und bewertet, ob diese aus „Money-Words“ bestehen oder organischen Ursprungs sind. Um Unnatürliche Links handelt es sich, wenn Worte im oberen Drittel der häufigen Link-Texte auftauchen, für die man sonst bei AdWords teuer bezahlen muss. Bezeichnungen wie „Markenware günstig“ setzt niemand ohne Bezahlung.

Normal wäre, dass die häufigsten Linktexte den Seitennamen in verschiedenen Versionen enthalten. Einmal mit „www“, einmal mit einem „/“ am Ende. Ebenso werden Wörter wie „hier“ oder „mehr“ gerne genutzt um auf die Zielwebseite zu verweisen. Pinguin erkennt, dass es sich hierbei um Links handelt, die durch normales menschliches Verhalten erzeugt wurden.

Der Panda im Kampf gegen schlechten Content

Benannt nach seinem Entwickler Nabil Panda, ist das Panda Update eine der wichtigsten Filtertechnologien der Google-Suchmaschine.

Im ersten Schritt der Entwicklung dieser Filtertechnologie wurden unzählige Webseiten von Menschen nach unterschiedlichen Kriterien bewertet. Ausschlaggebend waren Ladezeit, Benutzerfreundlichkeit, Design, Inhalt, Werbeflächen, Glaubwürdigkeit u.v.m. Die sich daraus ergebenden messbaren Merkmale für „gute“ und „schlechte“ Webseiten wurden in den Panda-Algorithmus übernommen.

Im zweiten Schritt wurde das Besucherverhalten auf diesen Webseiten gemessen, um diese Ergebnisse ebenfalls mit dem Panda-Algorithmus zu verknüpfen. Seit 2011 ist der Panda schon auf der Jagd nach Webseiten mit qualitativ schlechtem, bzw. qualitativ hochwertigem Inhalt. Zielsetzung von Panda ist es, Webseiten mit schlechtem Content herabzustufen und gleichermaßen Webseiten mit gutem Content in die Ranking-Liste nach oben zu setzen.

Worauf macht der Panda Jagd?

  • Inhalt ohne Informationstiefe oder eine zu geringe Menge an Inhalt (unique Content)
  • Unschön geschriebener Content (Keywordwiederholung)
  • Wenige oder keine qualitativen Backlinks
  • Geringe Verweildauer (time on page & time on site)
  • Zu viel Werbung
  • Hohe Absprungrate (bounce rate)

So ist man vor Panda und Pinguin „sicher“

Bei der Optimierung der Webseite zahlt es sich durchaus aus, diese FÜR den User zu konzipieren. Der User sollte vor allem nützliche Informationen vorfinden und diese leicht verwerten können. Webseiten-Betreiber sollten sich als Experten für ihr Unternehmen ausweisen und daher interessanten Content anbieten.

  • Erstellung eines Bogs mit echten Beiträgen
  • Individuelle Gestaltung der Produktbeschreibung (bei Shop-Betreibern)
  • Richtige Verwendung von Keywords. Zu viele Keywords deuten auf Spam hin, zu wenige auf mangelnde Informationsfülle.
  • Richtige Strukturierung der Texte. Unstrukturierte Texte deuten auf Spam hin, strukturierte Texte durch Überschriften und Absätze wirken qualitativ und vor allem leserfreundlich.

 

Vor allem ist es hilfreich Webmaster Tools zu nutzen, mit denen man den Pagerank, Backlinks, Keyworddichte u.v.m. messen und analysieren kann. Hierfür eignen sich zum Beispiel: Google Webmaster Tool, Sistrix, Ranking Check, X4d, SEOheap oder Seitenreport.

Leave a Reply