In dit artikel laat ik je zien wanneer A/B-testen zinvol is,
|wanneer het vooral tijdverspilling is, en hoe je dat vooraf checkt met je cijfers.

Wanneer je denkt dat alles klopt… maar er tóch niemand koopt

Stel je voor. Je hebt een goed product. Echt goed. Je hebt een strakke landingspagina.
Je funnel staat. Je mails lopen. Alles netjes gekoppeld. Het systeem doet precies wat het moet doen.

En toch… Er komt geen betalende klant uit. Geen drama. Geen paniek. Maar wel dat irritante gevoel van:
“Oké… maar wat is er dan aan de hand?"

Dus je duikt erin. Je maakt een dashboard. Je kijkt naar de cijfers. Je analyseert waar mensen afhaken. En je ziet het: De landingspagina krijgt verkeer, maar de conversie blijft achter.
Mensen kijken wel. Ze scrollen misschien. Ze verdwijnen ook weer.

En dan kom je op het punt waar bijna iedereen dezelfde fout maakt:
Dan ga je “even wat proberen”.

"Als je alles tegelijk verandert en het werkt beter,
weet je precies niks."

Knopje aanpassen. Titel herschrijven. Nieuwe foto. Extra bulletpoints. Nog een testimonial.
Nog een alinea. Nog een “gratis” erbij. En dan hopen dat het ineens wel werkt. Super menselijk. Maar ook super onhandig.

Je wil niet gokken. Je wil bewijs.

Want jij bent niet op zoek naar “mooier”. Je bent op zoek naar:
wat werkt beter in het hoofd van je klant?

Je wil niet hopen dat iets helpt. Je wil snappen:
wat iemand ziet
wat iemand denkt
waar iemand twijfelt
en wat er nodig is om die twijfel te doorbreken

En dan het liefst niet met meningen, maar met gedrag.
Want gedrag liegt minder.

En dan kom je uit bij A/B-testen

Een A/B-test is eigenlijk niets meer dan dit:

Je maakt twee versies van dezelfde pagina.
Versie A = de originele versie (zoals hij nu is)
Versie B = dezelfde pagina, maar met één gerichte verandering

En dan ga je meten:
levert versie B meer resultaat op dan versie A?

Niet omdat het spannend is. Niet omdat het “wetenschappelijk” klinkt. Maar omdat je wil stoppen met gokken.

Waarom je maar één ding tegelijk verandert

Dit is het punt dat veel mensen overslaan.

Als jij tegelijk:
de titel aanpast
de call to action verandert
de knop verplaatst
de layout omgooit
en er 3 testimonials bij zet

…en het resultaat gaat omhoog…

Dan heb je één conclusie:
“Oké. Iets werkte.”

Fantastisch. Maar wát dan? Daarom test je één ding tegelijk. Zodat je weet wat het effect veroorzaakt.

Concreet voorbeeld: knop verplaatsen

Versie A (origineel):
de call-to-action knop staat lager op de pagina, je moet scrollen om hem te zien

Versie B (nieuwe versie):
diezelfde call-to-action knop staat meteen in beeld, bovenaan de pagina, zichtbaar zodra je de pagina opent

Verder blijft alles hetzelfde. En dan laat je dit twee tot vier weken lopen. Niet drie dagen “even kijken”. Maar lang genoeg om het serieus te nemen.

En daarna kijk je:
klikken mensen vaker?
melden ze zich vaker aan?
kopen ze vaker?

Als B wint, weet je: die verandering doet iets. Dat is een A/B-test. Niet meer. Niet minder.

A/B-test in 1 zin: twee versies, één verschil, lang genoeg meten.

Waarom testen vaak niet werkt (probleem)

A/B-testen klinkt volwassen. Alsof je ineens niet meer “loopt te rommelen”, maar écht met conversie bezig bent. En dat snap ik. Want als je landingspagina niet levert, wil je houvast. Iets dat niet op gevoel is.

Alleen… in de praktijk wordt A/B-testen vaak ingezet op het moment dat het eigenlijk nog helemaal niet kan.

En dan krijg je dit:
je draait een test
je kijkt drie dagen naar de grafiek
je ziet een verschil
je voelt hoop

en daarna… gebeurt er niks

Niet omdat A/B-testen onzin is. Maar omdat je het te vroeg probeert.

01

reden 01: Je hebt te weinig verkeer (dus je test duurt eeuwen)

Met 80 bezoekers per week kun je “testen”, maar je bent vooral bezig met wachten. En tegen de tijd dat je klaar bent, zijn je campagne, aanbod of timing alweer veranderd. Dan test je dus iets anders dan je denkt.

02

reden 02: Je test iets dat te klein is (en dan ben je aan het micro-rommelen)

Knopkleur, één woordje, 2px padding… terwijl het echte probleem vaak vertrouwen of duidelijkheid is. Dan ben je niet aan het optimaliseren, maar aan het micro-rommelen.

03

reden 03: Je weet nog niet waar het probleem zit (dus je test blind)

Als je niet weet waar mensen afhaken, test je blind. Dat is tape plakken zonder te weten waar het kraantje lekt.

04

reden 04: Je kijkt te vroeg en roept te snel een winnaar uit

Na twee dagen staat B hoger en je brein gaat juichen. Maar gedrag schommelt per dag. Weekend, doordeweeks, e-maildrop, campagnepiek… Als je te vroeg kijkt, meet je vooral ruis met adrenaline.

De conclusie is simpel:
A/B-testen wordt te vroeg ingezet omdat mensen denken: testen = zekerheid.

Maar testen is pas zekerheid als je genoeg verkeer hebt, iets relevants test, weet waar het lekt, en lang genoeg meet om toeval uit te sluiten. En anders is A/B-testen gewoon… een hobby met grafieken.

Een bottleneck vertelt waar het misgaat. Niet waarom.

Wat je eerst moet doen (audit)

Voordat ik ook maar één A/B-test voorstel, wil ik één ding zeker weten:
Waar lekt het systeem nou echt?

Want als je niet weet waar het stokt, ga je testen op de verkeerde plek. En dan krijg je die typische CRO-frustratie: je verandert van alles, je meet van alles… en toch beweegt er niks.

Daarom start ik niet met knoppen, teksten of varianten.
Ik start met een audit.

Een landingspagina is zelden het échte probleem. Het probleem zit meestal in het systeem eromheen: het verkeer dat niet past, een belofte die niet matcht, frictie in een stap, te weinig vertrouwen, of simpelweg te weinig volume. En dat zie je niet door naar één pagina te staren. Dat zie je pas als je de hele klantreis in kaart brengt.

Dus we combineren twee dingen:
context en gedrag.

We praten met de mensen die met de funnel werken (wat is het plan, wat is er al geprobeerd?), en we duiken in de data: analytics, e-mail, social en klantgegevens. Niet om “cijfertjes te hebben”, maar om één ding helder te krijgen:
waar valt de meeste waarde weg?

Als je die route eenmaal ziet, van eerste klik tot betalende klant, wordt het ineens simpel. Dan zie je meestal binnen no-time de 4 of 5 grootste bottlenecks. En dán pas ga je kiezen: testen, iets groters aanpassen, eerst instroom fixen, of frictie uit een stap slopen.

A/B-testen is dus geen startpunt.

Het is iets wat je inzet als je al weet:
welke stap het probleem is, wat je wilt verbeteren, en wat je wilt bewijzen.

benieuwd naar de audit?

Hoe je van inzicht naar test komt (hypothese)

Je audit heeft z’n werk gedaan. Je weet nu waar het lekt. Je ziet waar mensen afhaken. Je ziet waar het systeem “dichtknijpt”.

En dan gebeurt er iets gevaarlijks. Dan wil je fixen. Meteen. Knop aanpassen. Titel herschrijven. Pagina omgooien. Want je voelt:
hier zit het.

Maar hier zit de truc:
Een bottleneck vertelt je waar het misgaat
Niet waarom.

En als je die “waarom” overslaat, test je alsnog blind. Alleen dan met een hip tooltje erbij.
Bottleneck = symptoom

Stel: je ziet dat er genoeg mensen op je landingspagina komen…
maar bijna niemand klikt door naar de volgende stap.
Dat is de bottleneck.

Maar dat betekent niet automatisch:
de knop moet omhoog.

Dat kan ook betekenen:
ze snappen de belofte niet
ze vertrouwen het niet
ze voelen te weinig urgentie
ze raken overweldigd
of ze denken: “mooi verhaal, maar niks voor mij”

Zelfde bottleneck. Vijf totaal verschillende oorzaken.
Dus als jij nu “gewoon wat gaat testen”, is dat geen CRO.
Dat is roulette met grafieken.

Hypothese = jouw beste verklaring

Een hypothese is eigenlijk heel simpel:
Dit gedrag gebeurt waarschijnlijk om deze reden.

Dus niet:
“Ik denk dat dit mooier is.”

Maar:
“Ik denk dat mensen niet doorklikken omdat ze bij binnenkomst nog niet snappen wat het oplevert.”

Of:
“Ik denk dat mensen afhaken omdat de vervolgstap te veel commitment vraagt op dat moment.”

Dat is een hypothese: een verklaring die je kunt toetsen.
En ja, je kunt het fout hebben.
Sterker nog: dat is precies de bedoeling.

Van verklaring naar één gerichte test

Als je hypothese helder is, wordt testen ineens makkelijk. Je verandert één ding dat logisch aansluit op die verklaring.

Voorbeeld:

Bottleneck: weinig mensen klikken door.
Hypothese: de waarde is te laat duidelijk, dus mensen haken af.
Test: zet het belangrijkste voordeel + bewijs direct bovenaan, en kijk of doorklik stijgt.

Niet tien veranderingen tegelijk.
Niet “even een nieuwe layout proberen”.
Gewoon één gerichte ingreep die antwoord geeft op één vraag.

Waarom dit je A/B-test volwassen maakt

Zonder hypothese ben je aan het zoeken naar een winnaar. Met een hypothese ben je aan het zoeken naar de waarheid achter het gedrag. Dan is een A/B-test geen “wedstrijdje tussen twee varianten”, maar een check:
Klopt mijn verklaring, ja of nee?

En als het antwoord nee is?
Mooi. Dan heb je geleerd. Dan ben je dichterbij.
Want conversie-optimalisatie is niet: snel scoren.
Het is: steeds beter snappen wat er in het hoofd van je klant gebeurt.

Wanneer is een A/B-test haalbaar?

Als iemand mij vraagt:
“Wanneer is een A/B-test haalbaar?”
dan ga ik niet praten over “gevoel”, “best practices” of “gewoon proberen”.

Ik zeg maar één ding:
Een A/B-test is haalbaar als je genoeg bezoekers hebt om een verschil te kunnen bewijzen.

Niet: “ik zie iets gebeuren.”
Maar: “ik kan met vertrouwen zeggen dat B beter is dan A.”

En dat kun je vooraf uitrekenen.

Een A/B-test is eigenlijk een eerlijk duel:
Variant A = wat je nu hebt
Variant B = één verandering

Maar als je te weinig bezoekers hebt, dan wint niet de beste variant…
Dan wint toeval.

Daarom moet je eerst weten:
hoeveel bezoekers heb ik nodig om een echte winnaar te kunnen zien?

Je rekent het benodigde bezoekersaantal uit met vier simpele inputs:

01

stap 01: bepaal je huidige conversie

Je begint altijd met wat er nu gebeurt.

Bijvoorbeeld:
100 bezoekers
3 mensen schrijven zich in

Dan is je conversie: 3%.
Dit is je uitgangspunt. Zonder dit getal kun je niet testen.

02

stap 02: bepaal welk verschil de moeite waard is

Nu komt het belangrijkste punt, en hier gaat het vaak mis.

Je moet vooraf kiezen:
welk verschil wil ik minimaal kunnen aantonen?

Niet:
“ik hoop dat het beter wordt.”

Maar:
“dit is het verschil waarvoor ik wil testen.”

Bij een conversie van 3% zijn dat bijvoorbeeld:
een verbetering naar 3,6% (ongeveer +20% relatief)
of een verbetering naar 4% (+1 procentpunt)

En hier zit de crux:
hoe kleiner het verschil dat je wil meten, hoe meer bezoekers je nodig hebt.

Een klein verschil vraagt om veel data.
Een groot verschil vraagt om minder data.

Een groot verschil zie je sneller, omdat je minder data nodig hebt om het te bewijzen. Betrouwbaarheid komt niet doordat je lang wacht, maar doordat je genoeg bezoekers hebt. En hoe snel je die bezoekers haalt, bepaalt hoe lang de test duurt.

03

stap 03: de vaste spelregels

Om een test betrouwbaar te noemen, hanteer je vrijwel altijd deze standaarden:
je wil 95% zekerheid dat het resultaat geen toeval is
je wil 80% kans dat je een echt verschil ook daadwerkelijk vindt

Deze waarden zijn niet spannend, maar wel belangrijk.
Ze zorgen ervoor dat je niet te snel conclusies trekt.

04

stap 04: wat komt er uit deze berekening?

Als je deze gegevens combineert, dan krijg je één uitkomst:
het aantal bezoekers dat je per variant nodig hebt.

Dus niet “totaal bezoekers”, maar:
zoveel voor A
zoveel voor B

Samen is dat het minimum om te kunnen zeggen:
dit verschil is echt.

Voorbeeld: Pro-Wall Systems

Op de website van Pro-Wall systems, een bedrijf die in ophang- en presentatiesystemen handelt, kun je een demo aanvragen. Ze willen het aantal mensen dat daadwerkelijk een demo aanvraagt verhogen van 1,5% naar 2%.

We doen dus één A/B-test op deze landingspagina:
Variant A = huidige pagina.
Variant B = dezelfde pagina, maar met één wijziging (bijv. alleen de CTA-tekst).

Huidige conversie naar demo-aanvraag is 1,5%.
Het doel is 2,0%. 

We willen weten:
hoeveel bezoekers per variant zijn nodig om 1,5% naar 2,0% betrouwbaar te kunnen meten?

Je gebruikt hiervoor een
A/B test sample size calculator
(die bestaan overal).

Wat je invult is basically dit:
P1 = huidige conversie = 1,5% (0,015)
P2 = gewenste conversie = 2,0% (0,020)
Confidence = 95% (standaard)
Power = 80% (standaard)

En dan klik je op “calculate”.

De calculator geeft je dit terug:
± 10.800 bezoekers per variant
dus ± 21.600 bezoekers totaal (A + B)

Is het haalbaar?

Volgens mijn analyse heeft Pro-Wall 390 demo’s nodig om de omzetdoelstelling te halen. De demo-pagina converteert nu 1,5%. Dat betekent dat je op jaarbasis ongeveer 26.000 bezoekers nodig hebt om aan die 390 demo’s te komen.

Als je een A/B-test doet, split je het verkeer 50/50:
13.000 bezoekers per jaar per variant (A en B)

We willen aantonen dat één wijziging de conversie verhoogt van 1,5% naar 2,0%. Met een A/B-test calculator (95% betrouwbaarheid, 80% power) kom je dan uit op:
10.800 bezoekers per variant
21.600 bezoekers totaal

Hoe lang duurt het voordat je genoeg data hebt?

Je hebt 10.800 bezoekers per variant nodig en je krijgt 13.000 per variant per jaar, dus:
10.800 / 13.000 = 0,83 jaar ≈ 10 maanden

Conclusie

Ja, het is haalbaar in de zin dat je de aantallen binnen een jaar kunt halen.

Maar het is niet “lekker” haalbaar als je hoopt op een snelle test van 2–6 weken. Je bent namelijk ongeveer 10 maanden bezig voordat je betrouwbaar kunt zeggen of B écht beter is dan A.

Om het haalbaar te maken is het volgende nodig:

  • Meer verkeer naar die landingspagina - Denk: extra campagnes, betere doorstroom vanuit ads/LinkedIn/SEO, meer verwijzingen vanaf andere pagina’s (doel: sneller aan die 10.800 bezoekers per variant komen)
  • Een groter verschil testen (grovere wijziging) - In plaats van mikken op 1,5% → 2,0% (klein verschil), test je een grotere stap die realistischer snel meetbaar is. Bijvoorbeeld: andere insteek/hero + nieuw aanbodframe (maar nog steeds één “pakket” als variabele).
  • Testen op een plek met meer volume (hoger in de funnel) - Als de demo-pagina te weinig bezoekers krijgt, test je eerder: advertentie/landingspagina vóór de demo, of een tussenstap die meer verkeer ziet.Meer volume = sneller resultaat.

Wat dit betekent in de praktijk

Dit is de reden dat veel A/B-tests nooit iets opleveren.
Niet omdat testen niet werkt, maar omdat er getest wordt zonder eerst te rekenen.

Dan wordt testen geen optimalisatie, maar gokken met grafiekjes.

Een A/B-test is dus alleen haalbaar als het verschil dat je wil meten past bij het aantal bezoekers dat je nodig hebt.

En dát moet je eerst weten, vóór je ook maar één variant bouwt.

De haalbaarheidscheck in je dashboard

Dit is waarom ik die audit altijd koppel aan een dashboard.
De audit is het denkwerk.
Het dashboard is het bewijs.

Want na die audit heb je niet alleen “inzichten”, maar een overzicht waar je echt mee kunt sturen:
we zien de klantreis,
we zien de conversies per stap,
we zien waar het stokt
en daar komen die bottlenecks uit.

Vanuit die bottlenecks formuleren we hypotheses.
En pas daarna denken we:
oké, gaan we testen?

Maar… in datzelfde dashboard zit nog één check die veel mensen overslaan.
De haalbaarheidscheck.

Niet alleen:
wat testen

maar ook: 
kan testen?

Je kunt de mooiste hypothese hebben.
Je kunt precies weten wat je wil verbeteren.
Maar als er te weinig mensen door die stap gaan, dan is een A/B-test vooral… een hobbyproject met grafieken.

Daarom zet ik in het dashboard ook grafiekjes die één ding laten zien:
Actual: hoeveel bezoekers/gebruikers er nu door die stap gaan (per week/maand)
Target: hoeveel bezoekers/gebruikers je nodig hebt om een A/B-test zinvol te kunnen draaien

En die twee leg je letterlijk naast elkaar.

Wat je daaruit haalt (in 5 seconden)

  • Ligt Actual ver onder Target? - Dan doen we nu geen A/B-test. Dan is er eerst iets anders nodig: instroom verhogen, frictie weghalen, of een grotere ingreep kiezen.
  • Zit Actual in de buurt van Target? - Dan kunnen we testen, maar we bepalen wel realistisch hoe lang het moet lopen.
  • Zit Actual boven Target? - Dan is testen wél logisch. Dan heeft het zin om bewijs te verzamelen.

Dit is precies het voordeel van werken vanuit audit + dashboard:
je kiest niet op basis van “zin hebben in testen”, maar op basis van haalbaarheid.

En dat voorkomt dat je weken lang naar een grafiek staart die niks mag zeggen.

Test uitvoeren, monitoren en besluiten

Oké. Je hebt je bottleneck. Je hebt een hypothese. Je hebt gecheckt dat er genoeg volume is.
Nu pas ga je testen.

En hier gaat het bij veel A/B-tests mis:
mensen behandelen een test alsof het een mening is.
“B staat hoger. Dus B wint.”

Nee.
Dat is geen conclusie. Dat is enthousiasme.

Uitvoeren = één verschil, eerlijk verdelen, lang genoeg laten lopen

Een A/B-test is alleen een test als je ‘m eerlijk uitvoert:
versie A = controle (origineel)
versie B = variant (één verandering)
verkeer wordt willekeurig verdeeld
je laat ‘m lang genoeg lopen (minimaal één volledige week, liever twee)

En ondertussen: niet elke dag zitten friemelen.
Geen extra wijzigingen. Geen nieuwe campagnes. Geen “we gooien er even iets bij”.
Want dan test je weer geen A vs B.
Dan test je chaos.

Besluiten = pas kiezen als het verschil “echt” is

En dan komt het begrip waar HubSpot (en elke degelijke testtool) altijd mee zwaait:
statistical significance.

In normale mensentaal betekent dat:
Hoe zeker weten we dat het verschil niet gewoon toeval is?

Dus niet:
“B staat hoger”

maar:
“B staat hoger én we hebben genoeg data om te geloven dat dit echt zo is.”

Zolang die zekerheid er niet is, is er geen winnaar.
Dan is er alleen ruis.

Wat je dan wél doet
Is het verschil statistisch significant?
Dan kun je besluiten: doorvoeren (of juist niet).

Is het verschil niet significant?
Dan besluit je óók iets:
je hypothese klopt waarschijnlijk niet,
of het effect is te klein,
of je had te weinig volume.

En dat is prima.
Want een A/B-test is geen gokautomaat.
Het is een leerinstrument.

Conclusie: A/B-testen is een middel, geen doel

Als jij A/B-testen inzet omdat je eindelijk zeker wilt weten wat werkt, dan snap ik je.
Maar dan zit je ook precies in de valkuil waar bijna iedereen in stapt:
Je gebruikt testen als geruststelling.
Niet als strategie.

En dat is cognitieve dissonantie in het wild.

Je zegt:
“Ik wil datagedreven werken.”

Maar wat je eigenlijk wil is:
niet hoeven kiezen.

Je zegt:
“Ik wil bewijs.”

Maar je hoopt vooral dat de grafiek je redt van verantwoordelijkheid.

Je zegt:
“Ik ga het serieus aanpakken.”

En ondertussen test je een knopkleur met 80 bezoekers per week.
Snap je?

Dat voelt volwassen… maar het is gewoon uitstel in een nette verpakking.

A/B-testen is geen doel.
Het is een middel. Een meetlat. Een reality check.
Het werkt alleen als je eerst het echte werk doet:
weten waar het systeem lekt
begrijpen waarom mensen afhaken
een hypothese formuleren die ergens op slaat
en pas dan testen of je verklaring klopt

En ja, soms is de conclusie dan:
We gaan níét testen.

Omdat je eerst instroom mist.
Of omdat je aanbod niet helder genoeg is.
Of omdat je klantreis frictie heeft waar je geen test voor nodig hebt, maar een schop tegen de deur.

Dus als je dit artikel meeneemt, onthoud dan dit:
A/B-testen is niet je plan.

Het is wat je inzet nadat je plan klopt.
En als jij eerlijk durft te kijken naar je cijfers, dan voel je het meteen:
ben je aan het optimaliseren… of ben je jezelf vooral bezig aan het houden?

Dat verschil bepaalt of je straks een “winner” hebt,
of gewoon weer een hobby met grafieken.

{"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}
>