conversie A/B testen

5 fouten die je wilt voorkomen wanneer je werkt aan je online conversie met A/B testen

Door Diede Vendrig
Persuasion Artist

A/B testen is een effectieve manier om je online conversie te verbeteren. Met een A/B test breng je telkens in kaart wat de impact van één verandering op je conversie is. Door doorlopend te testen en de succesvolle aanpassingen direct door te voeren zet je vlot stap na stap in de richting van een optimale website.

Wel komen er bij deze vorm van deze vorm van conversie optimalisatie een aantal technische en statistische uitdagingen kijken. Om de juiste conclusies uit je data te trekken, is het heel erg belangrijk dat je goed weet wat je doet en dat je hiernaast de data volledig begrijpt.

Een klein foutje in het proces of het lezen van de data is makkelijk gemaakt, en kan zorgen voor foute interpretaties en misplaatste verwachtingen. Door foute interpretaties loop je omzet en klanten mis. Dit wil je natuurlijk voorkomen. In dit blog zetten we 5 van de veelgemaakte fouten voor je op een rij zodat dit jou niet gebeurt.

1. Meerdere veranderingen in één A/B test

Waarschijnlijk heb je veel idee√ęn voor A/B tests: aanpassingen waarvan je wilt weten of ze je online conversie kunnen verhogen. Hoewel het soms verleidelijk kan zijn om meerdere idee√ęn in √©√©n A/B test te stoppen, is dit niet wenselijk. Wanneer je meerdere aanpassingen tegelijkertijd test, weet je namelijk niet meer door welke aanpassing een gemeten verandering tot stand is gekomen. Het zou zelfs zo kunnen zijn dat de ene aanpassing conversie verhoogt, terwijl de andere aanpassing de conversie verlaagt. Eindstand: je vindt geen effect terwijl er twee effecten bestaan. Dit is zonde. Je eindigt met een weggegooide test en gemiste kans op een succesvolle conversieverhoging.

Om diezelfde reden wil je ook niet meerdere A/B tests op dezelfde pagina tegelijk draaien. Deze tests kunnen elkaar be√Įnvloeden waardoor je testdata waardeloos wordt.

2. Geen rekening houden met conversie-verschillen tussen devices

Wanneer je aan je online conversie werkt door te A/B testen is het heel erg belangrijk goed naar onderlinge device verschillen te kijken. Soms werkt een aanpassing voor mobiele gebruikers ontzettend goed, terwijl het desktop gebruikers juist belemmert in hun aankoopproces. Dit is vaak wel logisch te verklaren en heeft onder andere te maken met de mindset waarin deze verschillende gebruikers verkeren. Waar desktopgebruikers vaak in een wat emotionelere mindset door het shop proces navigeren, hebben mobiele gebruikers vaak wat rationelere mindset en zijn daardoor minder vatbaar voor bijvoorbeeld psychologische be√Įnvloedingstechnieken.

Wanneer je bij de data-analyse geen onderscheid maakt tussen de verschillende devices waarmee consumenten over je website surften, krijg je een vertekend beeld van je resultaten. Sorteer je data daarom altijd per device.

3. Een A/B test te snel stoppen

Het kan heel aantrekkelijk zijn om tussendoor naar resultaten te kijken. Hoe verleidelijk dit ook is, we raden aan dit niet te doen. Wanneer je pas een korte tijd data hebt verzameld, zegt deze data namelijk nog niet zo veel. Soms lijkt een test op dag drie heel positief te zijn, maar zijn de rollen van variant A en B op dag vier volledig omgedraaid. Pas daarom ook op dat je een test niet te vroeg stopt. Je hebt een ruime hoeveelheid data nodig voordat de resultaten ook daadwerkelijk wat zeggen. Laat een test minimaal twee hele weken lopen en verleng met hele weken wanneer de data nog onvoldoende is voor een statistisch verantwoorde analyse. Dit laatste is belangrijk omdat het gedrag van consumenten over de dagen van de week heen wat kunnen verschillen.

4. Een A/B test te lang laten doorlopen

Net als dat een A/B test te kort kan lopen, kan deze ook te lang lopen. Wanneer een test te lang draait krijg je te maken met websitebezoekers die hun cookies verwijderen. Dit zorgt ervoor dat zij zowel conditie A als B te zien kunnen krijgen en dus meerdere keren in de resultaten terecht komen. Dit vervuilt het eindresultaat. Draai een test daarom maximaal 4 weken. 

5. Vertekening van de resultaten door flickering

Bij een A/B test legt een testtool aan de hand van een script een soort van laagje met de aanpassing over de huidige website. Dit script moet geladen worden. Wanneer het laden van dit script met daarin de aanpassing langer duurt dan het laden van de huidige website, dan ziet de gebruiker de website veranderen. De website flickert hierdoor een beetje. Dit flickeren kan een negatief effect hebben op conversie en zorgt daarmee voor een 1-0 achterstand voor de Variant B. Gelukkig kun je dit voorkomen door in alle condities heel kort eerst even een witte pagina te zien krijgen zodat alles ingeladen kan worden en direct de juiste website getoond kan worden aan de gebruiker. Zo start de strijd tussen variant A & B op een eerlijke stand van 0 tegen 0.

Hopelijk helpt dit blog je bij het tegengaan van enkele van de veelvoorkomende fouten bij A/B testen. Want zoals je leest, een fout is snel gemaakt en kan helaas serieuze gevolgen hebben voor je eindresultaat. Wil je dit risico niet lopen? Er zijn gelukkig veel partijen die je kunnen helpen bij conversie optimalisatie. Benieuwd of de aanpak van Studio ST&T bij je past?

Wil jij ook meer verkoop?

Studio ST&T, maakt off- en online winkels nóg effectiever

Laten we koffie drinken

Studio ST&T is een marketingbureau. Maar dan net een beetje anders. We verenigen creativiteit met neuromarketing. Kunst met wetenschap.

Door bewezen technieken uit psychologie maken wij jouw (online) winkel effectiever en behaal je meer omzet.

Begin Direct

 

conversie A/B testen