Zum Inhalt springen

Kürzere Ladezeiten – mehr Suchmaschinentreffer

Geschwindigkeit ist ein entscheidender Faktor im Online-Business/ Der Site-Optimizer

Untersuchungen über das Verhalten verschiedener Nutzer- und Altersgruppen zeigen die Auswirkungen von langen Ladezeiten bei Websites. Die Toleranzschwelle sinkt ständig (1999 waren es 8 Sekunden, 2006 noch 6 Sekunden, 2010 nur noch 2Sekunde), die Ungeduld surft mit. Wir nähern uns dem Nullpunkt…  Am Ungeduldigsten sind nicht etwa die 20-30jährigen, sondern mobile Webanwender über 45 Jahre.

Tatsächlich verlassen die meisten Nutzer eine Seite, die nach 3 Sekunden nicht geladen ist, und sie kommen auch nicht wieder. Selbst bei eigenen Transaktionen trifft das immerhin noch auf knapp die Hälfte der Nutzer zu.

Wie kann nun die Performance deutlich verbessert werden?

Vorweg: Eine hohe  Anzahl der Abfragen geht natürlich auch zu Lasten der Performance, aber möglichst viele Seitenzugriffe sind ja das Ziel aller Bemühungen und Voraussetzung für weitere Aktionen auf der Website und damit für ökonomischen Erfolg. Da bleiben also z.B.  die Komprimierung der Inhalte (man denke an Bilder, Formulare etc.), die Erhöhung der Serverleistung und der Bandbreite. Eine aktuelle Lösung  bieten Contribution Networks (CDN). Lokal verteilte Server sind über das Internet als ein Netz verbunden, um die Anfragen (Requests)  mittels Caching möglichst performance-optimiert  anzubieten.  Auch die Auswahl von Software mit suchmaschinenfreundlicher Struktur spielt eine Rolle – da haben sich beliebte und weit verbreitete OpenSource-Systeme wie TYPO3 und Magento (die von team:inmedias bevorzugt eingesetzt werden) bewährt.

Alle diese technischen Lösungen verwalten jedoch nur den Mangel an Bandbreite. Sie haben keinen Einfluss auf die ständig wachsende Datenmenge, die immer schneller übertragen werden soll. Und sie haben keinen Einfluss auf die Ladezeit beim Nutzer (immerhin etwa 80% der gesamten Ladezeit), die wiederum  von dessen Browser abhängig ist.

Was also kann man tun?
Ein neuer technischer Ansatz, auch als „Lernende Algorithmen“ bezeichnet, ist der Size Optimizer. Dieser kann als Software, SaaS (Software as a Service) oder Hardware eingesetzt werden und wird zwischen Backend und Frontend, also zwischen Webserver und Netzwerk aktiv. Er sorgt für einen beschleunigten Aufbau der Website im Browserfenster des Nutzers sorgt.

Wie funktioniert das?
Der Site Optimizer optimiert sämtliche Website-Ressourcen auf der Protokollebene und berechnet zudem das Anwenderverhalten im Voraus – die Ressourcen für Folgeseiten werden also auch im Voraus gesendet und wiederverwendete Elemente werden zwischengespeichert. Dadurch gibt es  deutlich weniger Anfragen des Browsers an den Webserver und letztendlich bis zu 80% weniger zu sendende Daten.   … So zumindest die Theorie. Getestet haben wir das noch nicht. Aber der Ansatz erscheint uns interessant und einen Blick wert.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.