A/B Testing

Die Geschichte liest sich wie ein Märchen, ist aber allem Anschein nach wahr: 2012 kam ein Mitarbeiter von Microsoft auf die Idee, die Überschriften von Werbeanzeigen in der Suchmaschine Bing anders als bisher darstellen zu lassen. Seine Idee, über die der Harvard Business Manager berichtet, war unspektakulär – und blieb daher erst einmal monatelang unbeachtet. Dann entdeckte sie ein Softwareingenieur und erkannte, dass die Umsetzung kein Hexenwerk ist. Also schickte er die alte und die neue Version ins Rennen. Das Ergebnis: Letztere sorgte für eine Umsatzsteigerung von zwölf Prozent, was bei dem Großkonzern allein in den USA einem Zuwachs von mehr als 100 Millionen Euro bedeutete – pro Jahr.

Was der pfiffige IT-Profi durchgeführt hatte, war ein sogenannter A/B-Test. Darunter versteht man, kurz gesagt, das kontrollierte Experimentieren mit einem Gestaltungselement, um unter Live-Konditionen zu testen, welche von zwei zur Auswahl stehenden Varianten den größeren Erfolg erzielt. Das muss dann nicht unbedingt eine Überschrift sein. Weitere Möglichkeiten sind beispielsweise das Anzeigen oder Weglassen eines Menüs, unterschiedliche Formulierungen eines Textes oder die Farbe eines Buttons. Klingt logisch und einfach? Das ist es einerseits, andererseits aber auch wieder nicht. Um aussagekräftige Ergebnisse zu erzielen, müssen einige Voraussetzungen erfüllt sein.

So werden A/B-Tests am besten aufgesetzt

Um herauszufinden, wie sich eine konkrete Änderung auf das Nutzerverhalten auswirkt, muss man sich zunächst darüber klar sein, was genau man testen will. Im Gegensatz zu sogenannten multivariaten Tests wird nur ein Element verändert, um den Effekt einer Änderung genau auf seine Ursache zurückführen zu können. Sinnvoll ist es, zunächst eine Hypothese zu bilden, um diese dann in der Praxis zu überprüfen. Vermutet man etwa, dass ein roter „Kaufen“-Button eher zum Klicken verleitet als ein grüner? Versuch macht kluch, sagt der Volksmund!

Darüber hinaus sollte ein angemessener Zeitrahmen beziehungsweise eine Mindestanzahl an Nutzern für den Test definiert werden. Um beim Beispiel zu bleiben: Ein roter Button, der die Klickrate im Gegensatz zu einem grünen um 100 Prozent steigert, klingt zwar nach einem eindeutigen Ergebnis. Wenn aber nur zehn Kunden geklickt haben, ist das keine Basis, um gleich die Farbgestaltung des Webshops umzuschmeißen. Felix Schirl, Geschäftsführer der trbo GmbH, empfiehlt auf internetworld.de zudem, bei der Auswahl der Testphase auf kaufneutrale Monate zu setzen – also solche, die nicht von saisonalen Besonderheiten geprägt sind. Weitere gute Tipps zur Durchführung von A/B-Tests finden sich unter anderem bei Hubspot und auf etracker.com.

Die Auswertung der Ergebnisse kann eine Wissenschaft für sich sein. Lösungsanbieter abtasty.com etwa weist darauf hin, dass A/B-Testing zu unterschiedlichen Ergebnissen führen kann – also beispielsweise zu mehr Einkäufen, aber einem geringeren durchschnittlichen Warenkorb. Daher ist es wichtig, bereits im Vorfeld das primäre Ziel zu definieren, und dieses im Nachhinein zu überprüfen. Auch die anderen Ergebnisse sind jedoch nicht unwichtig: Sie liefern oftmals Ideen für die weitere Webseitenoptimierung – oder separate A/B-Tests.

Nützliche Tools und vermeidbare Fehler

Um A/B-Tests durchzuführen, gibt es eine Vielzahl an Tools. Google Optimize ist eines, dem wir uns schon in einem früheren Blogbeitrag gewidmet haben. Das Portal t3n.de stellt weitere vor, darunter das weit verbreitete Optimizely. Mittlerweile gibt es Tools in jeder Preislage und unterschiedlicher Komplexität. Einfache Erkenntnisse lassen sich mit allen gewinnen. Die wichtige Frage, die sich jeder Shopbetreiber, der A/B-Tests durchführen will, aber beantworten muss, ist: Habe ich das Know-how, den Test ohne Hilfe aufzusetzen und die Ergebnisse richtig zu interpretieren? Wenn nicht, helfen externe Experten – oder die Entscheidung für umfassendere Lösungen, die in der Regel jedoch entsprechend kosten.

Wer auf eigene Faust loslegen will, sollte zumindest nicht die Fehler begehen, die schon viele andere gemacht haben. Sonia Höfs von AB Tasty rät unter anderem davon ab, die Variante während eines Tests zu bearbeiten, da dies den Test verfälschen würde. Auch zu frühe Rückschlüsse oder zu lange Tests sollten vermieden werden. Textbroker.de weist außerdem darauf hin, dass beide Varianten immer parallel im gleichen Zeitraum getestet werden und dass die Ergebnisse ehrlich anerkannt werden sollten – etwa, wenn die persönlich bevorzugte Variante den A/B-Test eindeutig verloren hat.

Fazit: A/B-Testing offenbart Stellschrauben, an denen Sie drehen sollten!

Vorneweg: A/B-Testing macht Spaß! Auch wenn das allein dem Geschäftserfolg noch nicht auf die Sprünge hilft, ist es nicht unwichtig. Denn die Gründe dafür haben sehr wohl mit dem Umsatz Ihres Online-Shops zu tun. Die Veränderungen sind naturgemäß sehr begrenzt, erfordern also nicht viel technischen Aufwand. Die Ergebnisse helfen aber so gut wie immer weiter. Gibt es eindeutige Ergebnisse, dann sowieso – auch wenn keine 100 Millionen zusätzlich in die Kasse gespült werden. Fällt der Test anders aus als erwartet, lernt man als Shopbetreiber trotzdem in der Regel viel darüber dazu, wie die Kunden ticken, worauf sie Wert legen – und worauf eher nicht. Für einen einfachen Einstieg stehen mittlerweile passable kostenlose Tools zur Verfügung.

Newsletter abonnieren

Verpassen Sie keinen Blog-Eintrag mehr!

Abonnieren Sie unseren Blog und halten Sie Ihr Online-Marketing-Wissen aktuell!
Newsletter abonnieren

Mehr zum Thema Online-Shops

Erfahren Sie mehr zur Optimierung von Online-Shops.

Online Shops mobile Optimierung

Wie optimieren Sie Ihren Online-Shop? Hier finden Sie fünf hilfreiche Tipps.

Online-Shop-Optimierung

Auch kleine Online-Shops haben Chancen, um gegen Amazon zu bestehen.