Bereits vor drei Jahren wurde auf diesem Blog über Fehlinterpretationen in Google Analytics mit Gefahrenpotential für A/B-Testing berichtet. Der gestiegene Fokus auf datengetriebene Analysen hat nun dazu geführt, dass solche Fehler nicht seltener, sondern häufiger vorkommen. CR-Optimierung ist nun Mainstream, was uns dazu bewegt hat, eine Neuauflage dieser Fehler zu präsentieren.
In diesem Artikel stellen wir Euch 8 verhängnisvolle Fehlinterpretationen in Google Analytics vor, die Euch richtig viel Geld kosten können. Es sind diese Basics, die Euch vor falschen Rückschlüssen schützen.
Das Problem der Optimierer mit Fehlinterpretationtn in Google Analytics
Ein noch immer zu großer Teil der Conversion-Rate-Optimierer hat keine oder eine falsche statistische Grundlage für durchgeführte A/B-Tests. Sie handeln auf Basis von Halbwissen, falschen Ableitungen und Vermutungen. Ein falsches Vorgehen bei der Analyse der Statistiken führt zu Fehlschlüssen und lässt wertvolles Budget verpuffen. Hier ein Beispiel vorab:
Was verrät uns die Bounce Rate?
Ein sehr beliebter Wert in Google Analytics, um potentielle Schwachstellen abzuleiten, ist die Absprungrate oder Bounce Rate. Doch einfach nur Seiten mit hoher Bounce Rate zu optimieren, ohne das Kernproblem analysiert zu haben, bringt nicht unbedingt den gewünschten Uplift, wie dieses Szenario zeigt:
Der Optimierer schaut mal wieder in Google Analytics, klickt ein wenig durch die Menüpunkte und landet im Content-Bereich. Ein sehr beliebter Wert, an dem potentielle Schwachstellen abgeleitet werden, ist die Bounce Rate. Ist diese zu hoch, kann man meist recht zuverlässig sagen, dass es auf der Seite irgendein Problem gibt. Also sucht man nach einer URL, die …
a) viele Besucher hat,
b) wirtschaftlich relevanten Content enthält und
c) eine überdurchschnittlich hohe Absprungrate besitzt (Pi mal Daumen > 25 %)
Eine Tabelle, die sich dann zeigt, könnte in etwa so aussehen:
Perfekt, oder? Also aus unserer, der Optimierer-Sicht natürlich. Wirtschaftlich gesehen ist das aber ein Grauen. Eine hohe Absprungrate und viele Ausstiege deuten darauf hin, dass die Besucher nicht das finden, was sie erwarten. Hier gibt es definitiv einiges zu tun und viel Potential zur Verbesserung.
Wenn es sich dabei dann noch um eine Produktseite mit einem hohen Seitenwert handelt, sollte es doch sehr rentabel sein, die Schwachstellen mit einem guten Testkonzept auszumerzen, oder?
Da kann doch eigentlich nur die Frage lauten: „Wann geht‘s los …?“
Also werden Hypothesen ausgearbeitet, Projektpläne geplant, Konzepte konzipiert, Designs designt und Tests gestartet. Nach drei Wochen Planung, vier Wochen Testlaufzeit und über 1.500 Conversions kommt am Ende ein nicht signifikanter Uplift von 0,02 Prozent heraus. Mist!
Falsche Schlüsse durch unzureichende qualitative Datenanalyse
Wie so oft liegt das Problem in der qualitativen Datenanalyse im Vorfeld. Der Test kann noch so gut und die Hypothese noch so stark sein, aber wenn das Kernproblem vorher passiert, bringt das alles nichts. Oder zumindest nicht so viel wie erwartet. In diesem speziellen Fall lag es an der Traffic-Quelle.
Wenn man die Daten genauer analysiert, stößt man irgendwann auf diese Tabelle:
Hier erkennt man die Ursache: Drei der vier Haupt-Traffic Quellen sind Affiliate-Netzwerke. Immer mit Absprungraten von über 99 Prozent. Wer nun noch weiß, dass Affiliate-Netzwerke teilweise mit Paidmail- oder Forced-Klick-Modellen arbeiten, sollte über den erzielten Uplift nicht mehr verwundert sein. Personen, die bezahlt oder gezwungen werden, auf eine Anzeige zu klicken, wird man auch nicht mit der stärksten Hypothese zum Kauf bewegen.
Erst die Datenanalyse, dann der Test
Unsere Intention ist aber nicht, bestimmte Traffic-Quellen zu diffamieren, sondern zu verdeutlichen, wie wichtig es ist, sich mit seinen Analysezahlen (oder mit denen des Kunden) genau auseinanderzusetzen. Natürlich ist die Menge der Daten inzwischen unglaublich riesig und nur noch schwer zu überschauen. Aber genau aus diesem Grund ist es so relevant, die Zahlen, auf deren Basis das Testbudget vergeben wird, genau zu analysieren.
Hierbei gilt es, vor allem einen einheitlichen Strang zu verfolgen, der sich durch die gesamte Analyse zieht. So vermeidest Du, dass Daten mit unterschiedlichen Ursprüngen vermischt werden.
Das Vergessen der Traffic-Quelle ist nur ein Punkt von vielen. Als kleinen Überblick findest Du nachfolgend acht häufige Fehlinterpretationen in Google Analytics, die Dich viel Geld kosten können:
8 Fehlinterpretationen in Google Analytics
#1: Viele verschiedene URLs zusammenfassen
Das Vorgehen:
Um sich einen Eindruck darüber zu verschaffen, welche der Kategorieseiten gut und welche schlecht funktionieren, werden einfach alle Seiten mit der gewünschten Kategorie per Reg-Ex in einem Report zusammengefasst. Die nun gezeigte Tabelle enthält mehrere tausend Zeilen, liefert aber im Tabellenkopf zusammengefasste Werte, die zur Optimierung genutzt werden sollen.
Der Fehler:
Die Zahlen im Tabellenkopf sind statistisch gesehen nur mit hoher Vorsicht zu interpretieren. Die angezeigten Werte haben nämlich nur eine geringe Aussagekraft, da sehr viele verschiedene URLs eben auch sehr viele verschiedene Einflussfaktoren mit sich bringen. Es können keine Besucher einer Quelle zugeordnet, keine Einstiege korrekt differenziert und keine Absprungraten in ein richtiges Verhältnis gesetzt werden. In einer Metrik zusammengefasst, kann das auch mal nach hinten losgehen
#2: Seitenaufrufe als Grundlage für wichtige KPIs nutzen
Das Vorgehen:
Bei der Datenanalyse wird die Metrik „Seitenaufruf“ (engl. Pageview) für die Berechnung relevanter KPIs verwendet.
Der Fehler:
Eine verbreitete Annahme ist es, dass ein Seitenaufruf ein relevanter KPI für die Conversion Optimierung der Webseite ist. Das ist er aber nicht. Ein Seitenaufruf beschreibt eben nur den reinen Aufruf und kann von einem Besucher während einer Session auch mehrmals ausgelöst werden. Das macht ihn für viele Datenberechnungen irrelevant, da rein aus dem harten Wert nicht herausgelesen werden kann, ob nun 100 Besucher auf der Seite waren oder aber 50 Besucher die Seite jeweils zweimal aufgerufen haben.
Werden aus diesem Wert wichtige Zahlen wie etwa Absprungrate, Konversionsrate oder gar Umsatz ermittelt, was immer noch viel zu häufig passiert, sind Fehlschlüsse vorprogrammiert.
#3: Zeitraum nicht beachten
Das Vorgehen:
Analysieren, Schwachstellen finden, Potentiale fett markieren und beim Chef das Lob für die tolle Analyse abholen.
Der Fehler:
Der Zeitraum der Datenerhebung wird falsch gewählt oder auch gar nicht beachtet. Uns ist es selbst schon oft passiert, dass wir anfingen, eine Datenanalyse zu starten und 30 Minuten und diverse Screenshots später fiel auf, dass ein völlig falscher Zeitraum eingestellt ist.
Wichtig ist immer vollständige Zyklen zu analysieren. Also von Montag bis Sonntag, einen Monat, ein Quartal, ein Jahr, etc. Außerdem sollten saisonale Veränderungen besonders beachtet werden.
#4: Ausstiege mit Einstiegen in vergleichen
Das Vorgehen:
Um sich einen besseren Überblick zu verschaffen, werden wichtige Einstiegsseiten auf Ausstiege hin untersucht. Dadurch soll bestimmt werden, wie viele Besucher die Seite nach dem Einstieg wieder verlassen.
Der Fehler:
Einstiege stehen in überhaupt keinem Zusammenhang zu Ausstiegen. Das Pendant zu Einstiegen sind Absprünge, da diese sich direkt auf neue Besucher beziehen. Unter Ausstiege fallen auch die Besucher, die sich schon lange auf der Seite bewegen. Daher ist eine Seite mit vielen Ausstiegen, nicht zwangsweise auch eine Seite mit einem Problem.
Ein Beispiel:
Man ist über eine Landingpage in einen Onlineshop gelangt, findet aber leider nicht das Passende, noch ein kurzer Blick auf die Startseite und wieder zurück zu Google.
Das System misst:
Landingpage: 1 Einstieg, 0 Ausstiege
Startseite: 0 Einstiege, 1 Ausstieg
Außerdem sollte man für die Definition ob es nun „viele“ oder „wenige“ Ausstiege sind, immer die Metrik „Eindeutige Seitenaufrufe“ (engl. Unique Pageviews) als Verhältnis wählen.
#5: Sich zu Tode segmentieren, ohne die Datenbasis zu beachten
Das Vorgehen:
Um alle Faktoren einer Webseite möglichst genau unter die Lupe zu nehmen, wird jeder Report bis in seine kleinsten Teile segmentiert. Dadurch soll sicher gestellt werden, dass jeder Kanal, jede URL und jeder Bereich der Seite in den Reports genügend Wertschätzung bekommt. Nicht ein kleines Detail darf bei der Analyse übersehen werden, um keine Fehler zu machen.
Der Fehler:
Segmentierungen sind sehr wichtig. Erst durch Segmentierungen lassen sich häufig aus großen Datenklumpen wichtige Erkenntnisse gewinnen. Im Eifer des Gefechts vergisst man dabei nur manchmal die Grundlagen der Statistik – speziell die Größe der Datenbasis und die Ableitungen, die sich daraus auf die Gesamtmenge der Daten ergeben.
Es ist sehr riskant, Besucher einer Seite in einem Channel-Report darzustellen, welcher dann auf Wochenenden, Regionen und Wetter segmentiert wird, wenn danach die Größe jedes Segments nicht einmal im vierstelligen Bereich liegt.
Und nur weil es möglich ist, etwas zu segmentieren, heißt das nicht, dass es auch gemacht werden muss. Segmentierungen machen dann Sinn, wenn eine konkrete Fragestellung dahinter steht und die Datenbasis ausreichend ist.
#6: Nicht wissen, was Sampling bedeutet
Das Vorgehen:
In der häufig genutzten Free-Version von Google Analytics werden Reports erstellt und Funnel-Auswertungen vorgenommen. Niemand beachtet dabei die kleine, unscheinbare Notiz am oberen rechten Bildschirm-Eck.
Der Fehler:
In seiner Free-Version arbeitet Google Analytics mit Stichprobendaten (Sampling). Liegen die Sitzungen bei den Berichten über einer gewissen Menge, so wertet Google Analytics automatisch nur eine Teilmenge aus.
Bei benutzerdefinierten Berichten liegt diese Schwelle bei >500.000 Sitzungen. Bei Verhaltensfluss-Berichten (bspw. Zielprozessfluss, Trichter-Visualisierung, etc.) wird bereits nach 100.000 Sitzungen gesampelt, bei Multi-Channel-Trichter-Berichten wiederum nach 1 Mio. Conversions.
Dieses Vorgehen ist nicht unüblich. Es hat den Vorteil, dass auch große Berichte mit kurzer Ladezeit aufgerufen werden können und somit die Serverlast reduziert wird.
Google selbst schreibt dazu:
„Stichproben sind in der statistischen Analyse weit verbreitet, da die Analyse einer Teilmenge von Daten ähnliche Ergebnisse liefert wie die Analyse der vollständigen Daten, wobei für die Ergebnisse weniger Rechenressourcen und weniger Zeit benötigt werden.“
Unser Augenmerk sollte hierbei auf dem Wort „ähnliche“ liegen. Gesampelte Daten sind ähnlich, aber eben nicht zu 100% korrekt. Genauso wie Ableitungen, die daraus getroffen werden. Dessen muss man sich bewusst sein. Gerade bei kniffligen Entscheidungen kann das manchmal den Ausschlag geben.
#7: Einen Funnel über die gesamte Webseite bauen
Vorgehen:
Die Trichter-Funktion wird genutzt, um den Verlauf der Besucher auf der Webseite nachvollziehen zu können. Los geht’s bei der Startseite über die Kategorie- und Produktdetailseite, entlang am Warenkorb und Checkout, bis hin zur Danke-Seite.
Der Fehler:
Der Gedanke, dass Besucher sich linear auf unserer Webseite bewegen, sollte recht schnell ad acta gelegt werden, denn er ist falsch. Daher ist es auch keine gute Idee, einen Report zu erstellen, der genau das suggeriert. Fehlinterpretationen sind so vorprogrammiert. Beispielsweise wird über die Exitrate der Kategorieseite geschimpft, dabei wechseln die Besucher nur auf eine Angebotsseite, die leider nicht im Funnel abgebildet ist.
Wenn Besucher aus dem Funnel aussteigen, bedeutet das nicht zwangsläufig, dass sie auch die Seite verlassen oder kein Interesse mehr an den Produkten haben. Es bedeutet nur, dass sie den vorher definierten Pfad verlassen haben, und sich anders verhalten, als angenommen – was eigentlich so gut wie immer passiert.
#8: Die Daten nicht nach Device segmentieren
Die Analyse und Interpretation der Daten in Google Analytics wird ohne vorherige Segmentierung gestartet. Die Daten werden gebündelt interpretiert, eine Segmentierung abseits von der Zeit und vielleicht noch vom Channel findet nicht statt.
Der Fehler:
Sollen Daten in Google Analytics interpretiert werden, muss neben vielen anderen Faktoren vor allem die Frage nach dem Device des Besuchers gestellt werden.
Die meisten Websites unterscheiden sich stark in ihrer Darstellung je nach Device-Klasse (Desktop, Mobile, Tablet) oder es gibt gar eine Mobile-Ansicht. Wird dies bei der Interpretation der Daten nicht berücksichtigt, werden Schwachstellen gegebenenfalls dem falschen Endgerät zugeschrieben. Auch hier sind Fehlschlüsse vorprogrammiert.
Fazit: Stärkere Vernetzung von CRO und Data Analysis
Natürlich bieten Seiten mit hohen Absprungraten, hohen Ausstiegsraten oder schlechten Konversionsraten meist großes Optimierungspotential. Wenn jedoch Besucherflüsse vermischt und Kennzahlen vertauscht werden, birgt das große Risiken für Fehlentscheidungen.
Unsere Erfahrung zeigt, dass Analytics-Daten gerade von Conversion Optimierern – damals wie heute – viel zu oft falsch interpretiert werden. Hauptgrund dafür scheint zu sein, dass die Abteilungen „CRO“ und „Data Analysis“ oft nicht stark genug vernetzt sind. Es reicht nicht aus, kurz eine Mail an die Analytiker zu schreiben, mit der Bitte, mal eben die Seiten mit den höchsten Bounce Rates rüber zu schicken.
Zur Identifikation von Schwachstellen auf der Seite benötigt es entweder einen Optimierer der sich sehr gut in der Datenanalyse auskennt oder eine sehr enge Zusammenarbeit der Abteilungen „CRO“ und „Data Analysis“. So wird sichergestellt, dass die vorhandene Infrastruktur im Data Bereich richtig genutzt wird und einen großen Teil zur positiven Entwicklung einer Webseite beitragen kann.
Wie habt Ihr die Entwicklung in letzten Jahren gesehen? Wir freuen uns auf Eure Kommentare!
The post 8 Fehlinterpretationen in Google Analytics, die viel Geld kosten können appeared first on Conversion Optimierung, Landingpage Optimierung | konversionsKRAFT.
Via – Conversion Optimierung, Landingpage…
Leave a Reply
Your email is safe with us.