Beiträge

online-marketing-lammenett

Searchmetrics allgemeine Rankingfaktoren nichts mehr wert? Wird jetzt alles anders?

Suchmaschinenoptimierung ist in den vergangenen beiden Jahren deutlich vielfältiger und komplexer geworden und ist auch aktuell mächtig in Bewegung. Das kann Segen und Fluch zugleich sein. Doch egal wie man es auch wendet – Suchmaschinen liefern im Normalfall immer noch den conversion-stärksten Besuchertraffic überhaupt. Kaum ein Unternehmen wird auf diesen Traffic verzichten wollen.

Recap

In meinen Buch „Online-Marketing Konzeption“, welches im Januar 2017 in der 2. Auflage erschien, bin ich auf die vielfältigen Änderungen und Ursachen eingegangen. Hier die wichtigsten Änderungen der jüngeren Zeit im Schnelldurchgang:

Mobile: 2015 verzeichnete Google erstmalig mehr Anfragen von mobilen Endgeräten als von Desktop-PCs. Durch die verstärkte Nutzung des mobilen Internet verändern sich auch das Benutzerverhalten und die Benutzererwartungen. Das wirkt sich besonders auf Suchmaschinenmarketing aus. Schon 2013 kündigte Google an, dass Webseiten, die eine schlechte mobile Ansicht liefern, bald im Ranking nach unten rutschen werden.

Nutzersignale: Zukünftig ist damit zu rechnen – da ist die Fachwelt sich einig – dass die Bewertung von Nutzersignalen beim Ranking stärker berücksichtigt wird. Die Berücksichtigung von Absprungraten und Verweildauer im Ranking-Algorithmus ist, lt. einigen Experten, erst der Anfang.

Wirklich relevanter Content: Google möchte seinen „Kunden“ relevante Suchergebnisse liefern. Um Relevanz beurteilen zu können, muss der Inhalt einer Seite verstanden werden. Genau das versucht Google mehr und mehr zu erreichen. Google will Inhalte wirklich verstehen, statt sie nur statistisch auszuwerten. Die Forschung in diesem Bereich macht Fortschritte und geht weit über WDF*IDF hinaus.

Veränderung bei der Produktsuche: Stichwort Amazon als Suchmaschine. Bitte sehen Sie hierzu meinen Blogbeitrag „Ist Amazon eine Suchmaschine? Oder was?„ unter http://www.lammenett.de/suchmaschinenoptimierung/ist-amazon-eine-suchmaschine-oder-was.html

Backlinks: Seit 2014 wird auch in Deutschland die Bedeutung von Backlinks stark in Frage gestellt.

Das Zusammenspiel zwischen Search und Social: Ein Indiz dafür, dass es zu einem engeren Zusammenspiel kommen wird, ist die im Februar 2015 besiegelte Partnerschaft zwischen Google und Twitter. Auch die im Dezember 2016 erschienenen Studie von Searchmetrics attestiert den sogenannten Social Signals wieder eine hohe Korrelation zur Ranking-Position.

Ein weiteres Indiz für deutliche Veränderungen im Bereich der Suchmaschinenoptimierung ist die jüngste Ankündigung der Firma Serachmetrics, ihre Ranking-Faktoren- Studie[1] nicht mehr wie bekannt fortzuführen. Searchmetris schreibt dazu Pauschale Ranking-Faktoren gibt es in der Form nicht mehr. Heute existieren für einzelne Industrien, im Prinzip sogar für jede Suchanfrage differierende Ranking-Faktoren, die sich fortwährend ändern. Der Grund dafür liegt in der Entwicklung und Anwendung von Machine-Learning-Algorithmen, die in die Bewertung von Websites und von Suchanfragen durch Google einfließen.“

Offenbar tun sich bei der SEO-Arbeit weitere gravierende Änderungen auf. Allgemeine Ranking Faktoren verlieren immer mehr an Bedeutung, seitdem Google flächendeckend künstliche Intelligenz (RankBrain) zur Evaluierung von Inhalten nutzt. Nicht mehr bloß das einzelne Keyword ist zukünftig entscheidend für den SEO-Erfolg, sondern der Kontext der Suchanfrage. Viele Marketeers, die sich in der Vergangenheit mit SEO befasst haben, befürchten nun, dass ein völliges Umdenken erforderlich ist. Doch wird wirklich alles anders?

Wird jetzt alles anders?

Da muss man als SEO-Mann zunächst einmal schlucken. Es gibt also keine universell gültigen Rankingfaktoren für alle Bereiche und Branchen mehr. Das liest sich zunächst einmal ganz furchtbar. Denn das bedeutet, dass Arbeiten und Maßnahmen, die für Kunde (oder Web) X durchgeführt werden und erfolgreich sind, für Y nicht zum Erfolg führen müssen. Es wird zukünftig nicht mehr nur einen erfolgreichen SEO-Mix geben, sondern viele verschiedene. Und die werden auch noch im ständigen Wandel sein. Welch ein grausames Szenario. Insbesondere, weil Search nach wie vor ein wichtiger Teil der Customer Journey ist und es wohl auch bleiben wird. Kaum ein Unternehmen kommt darum herum, sich mit dem Thema intensiv zu befassen.

Was genau bedeutet das denn für die bis Dato erlernten SEO-Methoden? Was ist mit dem guten alten SEO, welches im Kern aus den Bausteinen „Keyword-Analyse“, „Onsite-Optimierung“ und „Offsite-Optimierung“ besteht? Aktuell gibt es noch haufenweise Literatur, auch neueren Datums, welche SEO nach dieser Systematik abarbeitet. Dabei untergliedert sich die Onsite-Optimierung zumeist in inhaltliche Maßnahmen, strukturelle Maßnahmen und technische Maßnahmen (technische SEO).

Die gute Nachricht: Falsch ist das in der Vergangenheit erlernte nicht. Die Gewichtung verschiebt sich, und die Wahrheit kommt häufiger ans Licht (bzw. auf die oberen Plätze der SERP). Der Satz kommt Ihnen merkwürdig und vage vor? Das stimmt wohl. Daher werde ich das in der Folge erläutern.

Technische Faktoren sind und bleiben eine Grundvoraussetzung für ein gutes Ranking. Damit sind alle Maßnehmen, die in der klassischen SEO-Literatur unter den Rubriken

  • Onsite-Optimierung->technische Aspekte der SEO
  • Onsite-Optimierung->Code-Qualität
  • Onsite-Optimierung->korrekte semantische Auszeichnung, etc.

zu finden sind, auch heute noch von hoher Relevanz.

Die Gewichtung der einzelnen Rankingfaktoren verschiebt sich und wird sich durch Machine-Learning-Algorithmen weiter verschieben. So wird die Offsite-Optimierung an Bedeutung verlieren und einzelne Aspekte der Onsite-Optimierung, wie z.B. sprechende Links, die Verwendung von Keywords im Title, usw werden je nach Bereich/Branche eine unterschiedlich hohe Bedeutung haben. Aber sie werden ihre Bedeutung nicht verlieren. Es ist also nach wie vor nicht falsch, in einem Title-Tag oder in eine H1 ein Keyword einfließen zu lassen, das man zuvor als relevant identifiziert hat. Falsch wäre es nur dann, wenn es im Text der Seite gar nicht um das geht, was das Keyword impliziert. Denn – und damit sind wir beim dritten Punkt des obigen Satzes – die Wahrheit kommt häufiger als Licht. Google wird zukünftig nicht mehr nur statische Signale, die sich ja hinter den einzelnen Tags und im Text verbergen analysieren, sondern Content-Relevanz und Nutzer-Erfahrung in den Vordergrund stellen. Dazu muss Google die Relevanz der gesamten Seite beurteilen. Um dieses zu erreichen, muss Google den Sinn der Seite verstehen. Hieran arbeitet Google. Je erfolgreicher Goolge wird, je sinnloser wird es sein, schlechten oder mittelmäßigen Content an neuralgischen Punkten, wie Title, H1, Meta-Description etc., mit Keywords zu versehen.

Auch die Strukturierung von Inhalten und die Bildung von Themenwolken, so habe ich es in meinen Veröffentlichungen immer genannt, behält ihre Bedeutung. In der SEO-Literatur ist der Themenbereich häufig zu finden unter

  • Onsite-Optimierung->Struktur der Website

In Bezug auf qualitativ hochwertigen Content erfährt die sinnvolle Strukturierung von Text über mehrere Textdokumente sogar eine Aufwertung. Durch die Bildung von Themenwolken entstehen quasi holistische Themencluster. Zukünftig sind holistische Inhalte ein wichtiger Content-Success-Faktor. Einfach ausgedrückt bedeutet dies, dass miteinander verwandte, relevante Begriffe zu einem Themenbereich oder zu ähnlichen, verwandten Themen über die Websitestruktur verbunden werden.

Auch in Bezug auf die

  • Onsite-Optimierung->inhaltliche Maßnahmen

wird nicht alles anders. Der Anspruch an die Qualität der Inhalte steigt. Das ist im Grunde alles. Gemessen wird Qualität an der Relevanz und am Nutzerinteresse.

Nach wie vor ist es so, dass eine gute Suchmaschinenoptimierung aus einem Bündel von Maßnahmen besteht. Die Erstellung von relevantem Content der hervorragend zur Intention und zum Bedarf der Nutzer passt, wird nur dann zu erstklassigen Positionen auf der SERP führen, wenn dieser eingebettet ist in eine technisch optimal umgesetzte Website und wenn er für Mensch und Suchmaschine leicht zugänglich und gut lesbar ist.

Fazit

Eigentlich wird nicht wirklich alles anders bei der Suchmaschinenoptimierung. Für Unternehmen, die ihr SEO in die eigenen Hände genommen haben, ändert sich weniger als für Agenturen, die für viele unterschiedliche Kunden/Branchen/Bereiche arbeiten. Denn der optimale SEO-Mix wird sich zukünftig von Branche zu Branche unterscheiden. Aber die Grundprinzipien guter SEO-Arbeit behalten Bestand. Lediglich ihre Gewichtung verändert sich.

[1] Searchmetrics, Rebooting Ranking-Faktoren Google.de, Dezember 2016

online-marketing-lammenett

SEO: Geschwindigkeit als Rankingfaktor

Seit dem Jahr 2010 bezieht Google die Ladegeschwindigkeit einer Webseite in den Ranking-Algorithmus ein. Wie in sehr vielen Fällen ist jedoch im Detail unklar, welchen Stellenwert die Ladegeschwindigkeit im Set der rund 200 Rankingfaktoren hat. Zu Anfang sollte sie wohl lediglich im englischsprachigen Raum, also auf Google.com, von Bedeutung sein. Es waren zunächst weniger als ein Prozent der Webseiten von der Ergänzung der Lade-geschwindigkeit als Rankingfaktor betroffen. Doch wirklich präzise Informationen gibt es – wie immer eigentlich – nicht. Und natürlich sellten sich folgende Fragen: Wann ist eine Website schnell genug für Google? Was bedeutet überhaupt schnell? Eine kurze Ladezeit, niedrige Response Time, Größe der Seite oder Download-Geschwindigkeit? Wie kann Geschwindigkeit gemessen und beeinflußt werden?

Grundsätzlich weis man heute, dass eine schnelle Webseite die sogenannte User-Experience positv beeinflusst. Eine ordentliche Geschwindigkeit hat also im Grunde einen dreifachen Wert. Zum einen ist es ein Rankingfaktor per se. Zum zweiten erhöt Geschwindigkeit die User-Experinece, was wiederum ein Rankingfaktor ist. Und schlussendlich beeinflusst eine gute Geschweindikgeit nachweislich die Umsatzzahlen des Online-Shops oder die Transaktionsrate einer Website positiv.

Sinnvoller Weise unterscheidet man zwei Arten von Geschwindigkeit: Einerseits die sogenannte Time To First Byte (TTFB), also die Zeit, die der Server braucht, um über-haupt zu antworten. Und zum Zweiten die Zeit die bis zum vollständigen Laden der Seite aus funktionaler Sicht. Möchte man wissen, was als schnell bezeichnet wird kann, so hilft ein Blick auf die Top-Seiten. Eine Studie der Firma Searchmetrics hat 2015 die durchschnittliche Ladezeit in den mobilen Top30 mit 0,80 Sekun¬den und in den Desk-top-Top30 mit 0,87 Sekunden angegeben. Damit wäre zunächst einmal die Frage: „was ist schnell?“ beantwortet.

Nun zur Frage, wie die Geschwindigkeit gemessen und beieinflußt werden kann. Die Antwortzeit des Servers liegt primär an der Serverleistung beim Provider, an der Anbindung und an der Seitenarchitektur. Als Faustregel kann formuliert werden: Je eher der Browser gesagt bekommt, welche Daten er laden soll, desto eher kann er anfangen dieses zu tun. Die Geschwindigkeit bis zum vollständigen Laden der funktionsfähinge Seite liegt an vielen Faktoren. Natürlich spielt wiederum der Server und seine Leistungsfähigkeit eine Rolle. Aber es gibt etliche weitere Faktoren wie: die Anbindung des Servers, die Qualität des Codes, die Bildgrößen und deren Komprimierung, die Komprimierung und Zusammenfassung von Script-Code, der Einsatz von Caching und dergleichen mehr.

Tipp
Prüfen Sie die Geschwindigkeit Ihrer Webseite mit http://www.webpagetest.org/ oder vergleichbaren Tools.
Ein guter Startpunkt um Erkenntnisse über Verbesserungspotential im Bezug auf die Geschwindigkeit Ihrer Website zu erhalten ist sicherlich der Pagespeed-Test von Google. Details und Einzelheiten finden Sie unter https://developers.google.com/speed/docs/insights/rules. Weitere Informationen und Hilfestellungen hat Google hier veröffentlicht: https://developers.google.com/speed/.

Auch das Thema Mobilfreundlichkeit geht im Grunde in Richtung Pagespeed.

Im Februar 2015 kündigte Google an, dass ab April 2015 die Mobilfreundlichkeit einer Webseite ein Rankingfaktor wird. Mit „Mobildreundlichkeit“ ist die Nutzbarkeit einer Website auf Smartphones gemeint. Im Klartext bedeutet dieses, dass Inhalte einer Domain die nicht für den Zugriff von Mobilgeräten optimiert sind, bei der Suche über ein Smartphone benachteiligt werden. Ferner kennzeichnet Googel die Mobilfreundlichkeit einer URL auf den Suchergebnisseiten und warnt so indirekt den mobil suchenden Nutzer über nicht optimierte Inhalte. Siehe nebenstende Abbildung. Mobile-Darstellung-Rankingfaktor

Bedenkt man nun, dass Google ertmals seit 2015 mehr Abfragen von mobilen Endgeräten als von Desktop PCs verzeichnet, so wird klar weshalb für viele Unternehmen auch das Ranking auf mobilen Endgeräten von Bedeutung ist.

Worum es Google bei der Begünstigung von Mobilfähigen Seiten vorrangig ging, wurde Ende 2015 deutlich, als das „Accelerated Mobile Pages Project“ öffentlich wurde. Im Kern ging es um die Geschwin­digkeit der Auslieferung und damit um die übertragene Datenmenge. Denn bei dem Projekt stand vor allem die Kompression und Datenoptimierung von Webseiten im Vordergrund. Einerseits ist dies zwar etwas Paradox, da heute beinahe jeder User über eine schnelle mobile Datenverbindung verfügt. Andererseits gibt es jedoch auch Regionen auf dieser Welt, wo schnelle mobile Datenverbindungen noch nicht erschwinglich oder schlicht nicht vorhanden sind. Und Goolge ist nun mal ein Weltkonzern. Google geht es anscheinend darum, die Verfügbarkeit von schnell abrufbaren Informatio­nen zu belohnen. In diesem Kontext nutzt ein responsives Design nichts, wenn die dabei übertragene Datenmenge der einer Desktop-Seite nahekommt.

Searchmetrics veröffentlicht Rankingfaktoren 2012

Die große Unbekannte an Googles Seite gibt immer wieder Anlass zu Spekulationen.
Wonach wird die Listung bei den Google Suchergebnissen sortiert? Wodurch kann die Positionierung positiv beeinflusst werden? Welche Faktoren werden inzwischen stärker bewertet, welche verlieren an Bedeutung?

Searchmetrics wertet regelmäßig Unmengen von Daten aus und liefert hilfreiche Hinweise.

Einige Highlights der Erhebung

  • Social Media Signale sind in Deutschland angekommen: Auch in Deutschland korrelieren nun die Social Signals aus Facebook, Twitter und Google+ extrem stark mit guten Positionen im Google-Index.
  • Zu viel Werbung ist schädlich: Ebenso neu in Deutschland ist, dass es Seiten mit zu viel Werbung schwerer haben, gut zu ranken. Das eigentliche Hindernis dabei sind allerdings nur die Adsense Werbeblöcke…
  • Backlinks bleiben wichtig – aber nicht nur die Masse zählt: Auch, wenn die Zahl von Backlinks in dieser Kategorie am wichtigsten ist, gehören auch Links mit Stopwords und „nofollow“ unbedingt in den Linkmix.
  • Die Marke hebelt klassische SEO-Signale aus: Seiten von starken Marken brauchen anscheinend sich weniger um Title-Tag, Headings u.s.w. zu kümmern. Denn für sie gelten nach unseren Zahlen andere Regeln.
  • Die Keyword-Domain schafft immer noch häufig den ersten Platz: Allen anderslautenden Gerüchten sind Domains mit dem Keyword noch lange nicht tot. Auf den Top-Positionen findet man sie immer noch äußerst häufig.

Den kompletten Artikel zu den Searchmetrics Ranking Faktoren 2012 finden Sie auf der Serchmetrics-Website. SEO Ranking Faktoren Deutschland 2012: Infografik

Google macht ernst mit Ladezeit als Rankingfaktor

Angekündigt war es schon letztes Jahr (ich berichtete). Jetzt ist es offiziell: Google nutzt die Ladegeschwindigkeit von Webseiten als Ranking-Faktor für den Such-Index.

Google schreibt dazu, dass schnelle Internetseiten nicht nur für Webmaster wichtig sind, sondern für alle Internetnutzer. Daher habe man sich dazu entschlossen, die Seitengeschwindigkeit als neuen Faktor in den Algorithmus für die Ergebnissanzeige aufzunehmen.

Details dazu können hier nachgelesen werden:
http://googlewebmastercentral.blogspot.com/2010/04/using-site-speed-in-web-search-ranking.html

Und was bedeutet das für Sie? Ganz einfach – wenn Ihre Seite unnötig dick und fett ist – mit dick und fett meine ich die Anzahl der KBs der zu übertragenden Elemente – dann wird Google Ihre Seite schlechter werten und sie wird im Index abrutschen. Viele Bilder, nicht optimal komprimierte Bilder, große Falsh-Animatinen, Audio- oder Videodateien – das alles sind Dinge, die die Ladegeschwindigkeit einer Webseite erhöhen.

In Kürze können Sie hier im Blog nachlesen, was getan werden kann, um eine Website im Bezug auf die Ladegeschwindigkeit zu optimieren.