Ja, es gibt noch SEO-Konferenzen. Wie zum Beispiel die SEOCampixx in Berlin.
Im Frühjahr hat dort SEO-Spezialist Stefan Fischerländer einen Vortrag gehalten, in dem er aufzeigte, welche Rolle Technologien wie Machine Learning, Vektorisierung oder Word Embedding heute für Suchmaschinen spielen.
Das Ganze hat er in einem Beitrag auf seiner Website ExpiredWeb.net aufbereitet und freundlicherweise seine Slides über Slideshare (LinkedIn) geteilt.
„Maschinelles Lernen“ hört sich oft sehr abgehoben an.
Dahinter stecken durchaus gebräuchliche, sehr bewährte statistische Methoden wie die Klassifizierung von Elementen in einer Menge zur Clusterbildung unter Berücksichtigung der Euklidischen Distanz, so wie wir das zum Beispiel auch als Faktorenanalyse zur Ermittlung von Hauptkomponenten (mit R oder SPSS) kennen.
Welche Erkenntnisse gewinnen wir daraus für den SEO-Prozess?
In die Methodik, die Suchmaschinen anwenden, können wir nicht eingreifen. Noch schlimmer: Es lässt sich nicht mehr im Einzelfall nachvollziehen, wieso eine Website ein bestimmtes Ranking hat.
Es gab eine Zeit, in der sich das Ranking einer Domain nahezu zuverlässig aus der Anzahl eingehender Links ableiten ließ, sofern diese eingehenden Links nicht als unqualifiziert erkannt waren. Links sind immer noch ein Faktor, der künftig weniger Vorhersagekraft für das Ranking haben wird.
Die im Augenblick am ehesten praktikable Möglichkeit ist, das Informatiosbedürfnis von Usern – und damit das Suchinteresse – als wichtigsten Faktor zu berücksichtigen.
Man muss Webseiten liefern, die dieses Informationsbedürfnis bedienen – was nicht ganz einfach ist, weil man dieses ja nicht wirklich kennt, sondern nur vermutet und es zudem einer starken Dynamik unterliegt.
Fazit
Zentrale Thesen: Wir sind in einem Übergangsprozess, der durch den zunehmenden Einsatz von neuen Methoden wie maschinellem Lernen, Vektorisierung, Word-Embedding markiert ist.
Klassische Signale, die das Ranking auf Suchergebnisseiten beeinflussen, wie etwa Seitentitel und Links verlieren tendenziell an Bedeutung, auch wenn sie heute noch wichtig sind.
Dagegen gewinnen Suchabsichten, also Userverhaltensweisen, an Bedeutung. Suchmaschinen können heute Fakten erkennen und damit Webseiten bewerten.
Damit wir das ausprobieren können, sollten wir Python lernen.
Übrigens: goneo unterstützt Python Scripts in den Webhosting- und Webserver-Paketen.
Wie einflussreich sind die Backlinks für das SEO noch? Der Fokus geht wieder mehr auf OnPage SEO. Z.B. mit dem eigenen Blog. Das heisst, man beschreibt die für sich wichtige Keywords im eigenen Blog. Habt Ihr gleiche Erfahrungen gemacht?
Ich glaube, dass das „klassische SEO“ nun einfach Standard ist (Metatags, URLs, eingehende Links, Codekorrektheit) und als gegeben vorausgesetzt wird. Die algorithmische Contentbewertung kommt on top, also zusätzlich, eher additiv statt multiplikativ. D.h. eine Domain KANN auch ohne viele eingehende Links für ein Thema oder KW ranken. Dennoch sind Links auch ein (starkes) Signal für die Relevanzbewertung einer Webseite bezüglich eines KWs.
Wir sind bestimmt in einer Übergangsphase. Ich habe das Gefuhl dass wir in 3 Jahren alles von Vorne lernen werden, wegen der AI !
Also wenn ich das richtig verstanden habe gehört weitaus mehr zu SEO, von verschiedenen Contentstrategien über Offpage (Linkaufbau) bis hin zu den technischen Punkten wie sprechende URLs, Hreflang Auszeichnungen für internationale Seiten etc. Um all diese Punkte nicht aus den Augen zu verlieren habe ich eine super Checkliste gefunden https://www.onlinesolutionsgroup.de/gute-seo-agentur-finden.html Die kann man sich easy downloaden. Ich habe mir hier meine eigenen Notizen hinzugefügt und die Liste so gestaltet das ich jetzt täglich damit arbeite.