Seitdem Suchmaschinen die Stellschrauben liefern, um Traffic auf die eigene Website zu bringen, so lange gibt es schon SEO: Search Engine Optimisation, was viele damit verwechseln, sich mehr oder weniger schmutzige Tricks technischer Art einfallen zu lassen, um die Ranking-Algorithmen in einer für sich günstigen Weise zu beeinflussen.
SEO ist böse, denn SEO manipuliert die Suchergebnisseiten von Suchmaschinen in unangemessener Weise, so ein gängiges Vorurteil. Das ist nicht so gemeint, wenn von SEO die Rede ist. Die Website soll suchmaschinenfreundlich sein. Vielleicht wäre dies ein besserer Ausdruck für all die Massnahmen, die man ergreifen kann, um sicherzustellen, dass die eigene Website einen angemessenen Platz auf den Suchergebnisseiten bekommt.
Als Webseitenbetreiber ist man immer daran interessiert, herauszufinden, welche Faktoren zu einer besseren Darstellung auf den Suchergebnisseiten führen (dabei bedeutet „besser“ oft einfach nur weiter oben, aber auch die Anzahl der Impressionen und Klicks ist zu beachten).
Da die Funktionsweise des Rankingalgoritmus von Google ein Betriebsgeheimnis ist, das bis heute nicht komplett transparent ist, werden von professionellen Suchmaschinenoptimierern viele Versuche unternommen, die Wirkungsweise des Algorithmus mithilfe von statistischen Verfahren zu erkennen.
Die Firma Searchmetrix versucht, die wichtigsten Rankingfaktoren mit Korrelationsanalysen zu ergründen: Man betrachtet vermutlich wichtige Faktoren wie Anzahl der eingehenden Links, Social Media Signale und URL-Strukturen und überprüft statistisch, ob es einen Zusammenhang mit der Position der betrachteten Site (Domain) auf den Suchergebnissseiten gibt.
Es zeigen sich hohe Korrelationen für Social Media Signale und Anzahl der Backlinks um 0.31. Je nach Wissenschaftsgebiet betrachtet man Korrelationen dieser Größenordnung eher als schwach oder und nicht besonders interessant, um damit einen linearen Zusammenhang begründen zu können.
Die Auswertung von Searchmetrix ist hier.
Einen ähnlichen Ansatz hat der amerikanische Anbieter moz.com vorgenommen (früher seomoz).
In dieser Korrelationsstudie hat sich gezeigt, dass der Faktor „Page Authority“, also eine Masszahl, die man graphentheoretisch gewinnen kann und hauptsächlich vom Grad der Vernetztheit einer Domain (eingehende Links) widergespiegelt wird, der wichtigste ist. Aber auch hier lag der Pearson-Korrelationskoeffizient nur bei 0.38, was auch keine wirklich starke Korrelation ist und vor allem keine Vorhersagen ermöglicht, wo die Website auf den Suchergebnisseiten für ein Keyword zu finden ist, wenn man die Page Authority kennt.
Die Moz-Korrelationsstudie geben zumindest in diesem Punkt wieder, was befragte SEO-Experten als wichtigstes Kriterium für eine gute Suchmaschinenposition annehmen: Es ist nach wie vor die Verlinkung externer Seiten auf die eigene Seite, auch wenn die von Searchmetrix gefundenen Korrelationen zu Social Media Signalen etwas anderes nahelegen. Es könnte sich um Scheinkorrelationen handeln.
Da der Verlinkunsgrad offensichtlich die wichtigste Waffe im Spiel im hohe Suchergebnisseiten ist, betreiben Websietenbesitze viel Aufwand, um die Anzah eingehende Links zu steigern.
Dies ist ein Vorgehen, das Google als der wichtigste Suchmaschinenbetreiber nicht gutheißen kann, denn schließlich muss man als Suchmaschine die zu einem Suchbegriff für die meisten User relevantesten Ergebnisse (Seitenvorschläge) auf der ersten Seite zeigen. Künstlicher, unnatürlicher Linkaufbau, der daraus resultiert, dass in den von Webmastern gesetzten Verlinkungen keine Empfehlungen zu sehen sind, sondern der Versuch, eine Domain künstlich zu pushen, obwohl sie inhaltlich vielleicht nicht so relevant ist.
Unnatürlich erscheinender Linkaufbau kann dazu führen, dass die Seite abgewertet wird, um die manipulativ gewonnene Besserstellung zu korrigieren. Unter Umständen kann die Site komplett aus den Suchergebnisseiten verschwinden.
Statt dessen gab Google immer häufiger das Credo aus, als Webseitenbetreiber möge man „großartigen Content“ mit „exzellenter Usererfahrung“ produzieren, dann wären – so wurde nahegelegt – die obersten Positionen der Suchergebnisseiten erreichbar.
Als Google diesbezügliche Warnung vor Linkaufbau immer öfter publiziert hat, entstand sogar eine Angst vor Linkaufbau und negativer SEO. Mit Hilfe von Links, die man künstlich in großer Zahl auf eine Konkurrenzsite setzt, könne man erreichen, dass die Suchergebnisseiten für diesen Konkurrenten sinken (durch Abwertung) und man so einen Konkurrenten von den obersten Positionen abschießen kann.
Das Pendel schlug in die andere Richtung: SEOs begannen, sich auf Linkabbau zu konzentrieren. Linkaufbau wurde eher kritisch betrachtet Eine Meinung, die Matt Cutts, dem Leiter des Google Webspamteams, kürzlich korrigieren wollte.
Im Grunde genommen ist jede Art von Linkaufbau nicht regelkonform bzw. nicht im Sinne des Betrachters, selbst wenn man aktiv Lieferanten, Geschäftspartner oder sonst wen nach Backlinks fragt.
Der Witz an der ganzen Geschichte: Backlinks haben bislang immer funktioniert, funktionieren auch jetzt und werden immer der wichtigste Rankingfaktor sein. Guter Content und Verlinkungen aus dem Social Netzwerk sind schön und gut, aber nicht das Wichtigste um bei Google vorne zu stehen.
Hallo Martin, ich denke eine gute Mischung macht`s. Von daher bin ich immer wieder der Meinung, dass man den Backlinkaufbau einem Fachmann überlassen sollte. Viele Grüße
So lange er nicht bei irgendeinem Linknetzwerk Links kauft oder mietet die gerade erst wieder abgestraft wurden oder demnächst wird. Matt Cutts holt ja gerade zum Rundumschlag aus und watscht ein Netzwerk nach dem anderen ab. Die Frage ob man sich da dann doch nicht besser auf Content und schöne wdf*idf-optimierte Artikel konzentriert, sollte da berechtigt sein. Gibt ja genügend Beispiele von Seo´s – die durch WDF*IDF Optimierung viele Landingpages auch zu stark umkämpften Suchbegriffen ganz nach oben bekommen haben.