Elk business idee is gebouwd op aannames. Je Business Model Canvas zit er vol mee. Je Waarde Propositie Canvas zit er vol mee. Klanten willen dit. Ze betalen die prijs. We leveren via dit kanaal. Elk van die uitspraken is een aanname, of hypothese, zolang je geen bewijs hebt.
Het probleem is niet dat teams niet testen. De meeste innovatieteams waar ik mee werk voeren experimenten uit. Het probleem is hoe ze hun business aannames testen. Ze kiezen de makkelijke. Ze slaan de stap over waarin je definieert hoe falen eruitziet. Ze runnen een test, krijgen onduidelijke resultaten, en noemen het een succes. Want niemand had vooraf een drempel bepaald.
Na 100+ sessies met teams die business ideeen testen, zie ik steeds hetzelfde patroon. Teams die een gestructureerd proces volgen voor het testen van aannames, krijgen heldere antwoorden in weken. Teams die stappen overslaan, produceren drukte die niets oplevert. Dit is het stappenplan dat echt werkt.
Boek een Strategy Call over het testen van je business idee
Boek je Strategy CallWaarom de meeste aanname-tests mislukken
Voordat ik het proces doorloop, is het goed om te begrijpen waarom de meeste teams dit verkeerd aanpakken. Het is geen kennisprobleem. De meeste innovatieteams hebben Testing Business Ideas gelezen of kennen de basis van Lean Startup. Het probleem zit in het proces.
Drie dingen gaan het vaakst mis:
Teams testen wat comfortabel is, niet wat risicovol is. Een prototype bouwen voelt productief. Potentiele klanten vragen of ze het probleem daadwerkelijk hebben dat jij denkt, voelt oncomfortabel. Dus kiezen teams voor haalbaarheidsexperimenten (“kunnen we het bouwen?”) en vermijden ze wenselijkheidsexperimenten (“wil iemand dit eigenlijk?”). Ik beschreef dit patroon uitgebreid in veelgemaakte fouten bij business experimenten.
Teams slaan de prioritering van aannames over. Een typisch Business Model Canvas bevat 15 tot 30 aannames. Allemaal testen is onmogelijk. Maar zonder methode om te bepalen welke je eerst test, testen teams willekeurig of beginnen ze met wat het meest voor de hand ligt. Het resultaat: drie maanden experimenten die dingen testten die er niet toe deden.
Teams definieren geen faalcriteria voordat ze beginnen. Dit is het grootste probleem. Zonder faalcriteria die vooraf vaststaan, kan elk resultaat achteraf als succes worden uitgelegd. “We zeiden 30%, maar 22% is dichtbij genoeg.” Dat is niet testen. Dat is jezelf een verhaal vertellen.
Het proces hieronder lost alle drie op.
Stap 1: Breng je aannames in kaart vanuit je canvassen
Aannames komen niet uit het niets. Ze komen uit je businessmodel en waardepropositie-ontwerp. Elk vak op je Business Model Canvas en elk onderdeel van je Waarde Propositie Canvas bevat aannames die waar moeten zijn om het idee te laten werken.
Begin door elk bouwblok langs te lopen en een vraag te stellen: “Wat moet hier waar zijn om ons model te laten werken?”
Voor het Waarde Propositie Canvas focus je op customer jobs, pains en gains, of klanttaken, pijnpunten en klantvoordelen. Zijn dit de juiste klanttaken? Zijn deze pijnpunten pijnlijk genoeg om actie te drijven? Waarderen klanten deze voordelen echt, of projecteer je je eigen prioriteiten?
Voor het Business Model Canvas werk je elk blok door. Belangrijke gebieden waar aannames zich verstoppen:
| Canvas bouwblok | Voorbeeldaanname |
|---|---|
| Klantsegmenten | “Plantmanagers bij middelgrote productiebedrijven hebben dit probleem” |
| Waardepropositie | “Onze oplossing bespaart 15% op productie-downtime” |
| Kanalen | “We bereiken beslissers via vakbeurzen” |
| Klantrelaties | “Klanten stappen over van hun huidige leverancier” |
| Inkomstenstromen | “Klanten betalen €45.000 per jaar hiervoor” |
| Key resources | “We kunnen drie gespecialiseerde engineers aannemen binnen 6 maanden” |
| Key partners | “Leverancier X integreert met ons platform” |
| Kostenstructuur | “Eenheidskosten dalen onder €200 bij 10.000 stuks” |
Schrijf elke aanname als een heldere uitspraak. Niet “klanten” maar “inkoopmanagers bij voedselverwerkende bedrijven met 200+ medewerkers geven prioriteit aan het verminderen van verpakkingsafval boven kostenbesparingen.” Hoe specifieker de aanname, hoe makkelijker die te testen is.
Een typische mapping-sessie levert 15 tot 30 aannames op. Dat is normaal. Je gaat ze niet allemaal testen. De volgende stap bepaalt welke ertoe doen.
Stap 2: Prioriteer op risico (welke aanname doodt het model?)
Dit is de stap die de meeste gidsen compleet overslaan. En het is de stap die bepaalt of je tests echt bewijs opleveren of alleen activiteit.
Niet alle aannames zijn gelijk. Sommige, als ze niet kloppen, zijn kleine ongemakken. Je kanaal-aanname klopt niet? Je vindt een ander kanaal. Je kosten-aanname zit er 10% naast? Je past je prijzen aan. Maar sommige aannames, als ze niet kloppen, betekenen dat het hele businessmodel instort. Die test je eerst.
Ik gebruik een simpele 2×2 matrix voor het prioriteren van aannames:
| Laag belang (model overleeft als het niet klopt) | Hoog belang (model sterft als het niet klopt) | |
|---|---|---|
| Veel bewijs (we hebben data) | Parkeren. Geen test nodig. | Monitoren. Je hebt bewijs, maar houd het in de gaten. |
| Weinig bewijs (we gokken) | Later testen. Lage prioriteit. | Eerst testen. Hier horen je experimenten. |
Het kwadrant rechtsboven is waar je eerste experimenten op moeten richten. Hoog belang, weinig bewijs. Dit zijn de aannames waar je vooral aan het gokken bent over iets dat het project kan vernietigen.
In de praktijk zie ik teams dit tegenhouden. Ze willen de aannames linksonder testen: laag belang, weinig bewijs. Waarom? Omdat die vaak het makkelijkst te testen zijn. Een snelle enquete. Een simpel prototype. Snel resultaat. Maar snelle resultaten over dingen die er niet toe doen, zijn erger dan helemaal geen resultaten. Ze creeren een vals gevoel van voortgang.
Een B2B-industrieel bedrijf waar ik mee werkte had 22 aannames in kaart gebracht. Na prioritering sprongen er drie uit als model-killers: de aanname dat plantmanagers zouden betalen voor predictive maintenance data (betalingsbereidheid), de aanname dat bestaande sensordata nauwkeurig genoeg was voor het algoritme (haalbaarheid), en de aanname dat IT-afdelingen een data-koppeling met een externe partij zouden goedkeuren (organisatorische buy-in). Al het andere was bijzaak. We testten die drie eerst. De derde faalde. IT-afdelingen waren niet bereid hun netwerken open te stellen. Dat doodde een versie van het model en stuurde het team om naar een offline-oplossing. Dat scheelde maanden ontwikkeltijd.
Dat doet aanname-prioritering. Het wijst je naar de experimenten die daadwerkelijk beslissingen veranderen.
Stap 3: Kies het juiste type experiment
Zodra je weet welke aanname je test, moet je het juiste experiment kiezen. Verschillende soorten aannames vragen om verschillende tests.
Er zijn drie categorieen aannames, en elke categorie hoort bij een andere set experimenten:
Wenselijkheidsaannames (willen klanten dit?): Test met klantinterviews, landingspagina-tests, enquetes, advertentiecampagnes, concierge-experimenten of pre-sales. Dit zijn de snelste en goedkoopste tests. Vijf tot tien klantgesprekken kunnen een wenselijkheidsaanname in een week bevestigen of ontkrachten.
Levensvatbaarheidsaannames (kunnen we er geld mee verdienen?): Test met prijsexperimenten, intentieverklaringen, pre-orders, financiele modellering met echte data, of interviews over betalingsbereidheid. Dit is lastiger omdat mensen liegen over betalingsbereidheid. Het sterkste bewijs komt uit situaties waar klanten een echte actie ondernemen: een intentieverklaring tekenen, een pre-order plaatsen, of kiezen tussen prijsniveaus.
Haalbaarheidsaannames (kunnen we dit bouwen en leveren?): Test met technische prototypes, leveranciersonderhandelingen, proof-of-concept builds, of partnertoezeggingen. Dit zijn de experimenten die het meest natuurlijk aanvoelen voor engineering-gedreven bedrijven. Precies de reden waarom ze overgeprioriteerd worden.
Het juiste experiment bij het juiste type aanname matchen is cruciaal. Ik behandel dit uitgebreid in de experiment-bibliotheek: welk experiment bij welke aanname.
De veelgemaakte fout is voor alles hetzelfde type experiment gebruiken. Teams die van prototypes houden, testen elke aanname met een prototype. Teams die van klantinterviews houden, testen elke aanname met interviews. Geen van beide werkt. Een klantinterview kan geen technische haalbaarheidsaanname valideren. Een prototype kan geen betalingsbereidheid valideren. Match het experiment bij de aanname.
Voor de maakindustrie en industrieel B2B gelden sommige standaard experimenten niet. Je kunt geen A/B-test doen op een productielijn. Je kunt geen landingspagina-test uitvoeren voor een industrieel systeem van €2 miljoen. Maar je kunt wel testen met intentieverklaringen, haalbaarheidsgespreken met leveranciers, en pilotovereenkomsten met lighthouse-klanten. Het principe is hetzelfde. Alleen het format van het experiment verandert.
Boek een Strategy Call over het testen van je business idee
Boek je Strategy CallStap 4: Stel faalcriteria op voordat je begint
Dit is de belangrijkste stap in het hele proces. En de meest overgeslagen.
Faalcriteria zijn specifieke, meetbare drempels die je definieert voor je het experiment uitvoert. Ze beantwoorden een vraag: welk resultaat zou ons vertellen dat we moeten stoppen?
Niet “hoe ziet succes eruit.” Faalcriteria. Wat zou ons deze richting doen stoppen?
De reden dat dit ertoe doet: na een experiment zijn teams emotioneel betrokken. Ze hebben tijd, energie en soms budget geinvesteerd. Ze willen dat het idee werkt. Zonder vooraf bepaalde criteria wordt de interpretatie van resultaten een onderhandeling. “22% zit dicht bij 30%.” “Slechts 3 van de 15 waren geinteresseerd, maar ze waren heel erg geinteresseerd.” “De data is gemengd, maar de trend is positief.”
Ik heb deze onderhandeling in tientallen sessies zien gebeuren. Het eindigt altijd hetzelfde: het team overtuigt zichzelf dat de resultaten goed genoeg zijn, en het project gaat door zonder echt bewijs.
Zo stel je faalcriteria op die standhouden:
Wees specifiek. Niet “positieve klantreactie” maar “minstens 5 van de 20 doelklanten zeggen in een gestructureerd interview dat ze €X zouden betalen.”
Maak het meetbaar. Het resultaat moet een getal zijn of een helder ja/nee, geen kwalitatieve indruk.
Zorg voor akkoord voordat je begint. Iedereen in het team, inclusief de projectsponsor, gaat akkoord met de criteria voor het experiment begint. Schrijf het op een whiteboard. Zet het in het experimentdocument. Maak het zichtbaar.
Leg de lat eerlijk. De criteria moeten weerspiegelen wat je daadwerkelijk nodig hebt om het businessmodel te laten werken, niet wat haalbaar voelt voor een eerste test. Als je model 10% conversie vereist en je experiment toont 3%, dan is dat een fail. Het maakt niet uit dat “het pas de eerste test was.”
Ik ga veel dieper in op het opstellen van verschillende soorten faalcriteria in faalcriteria voor business experimenten.
Voorbeelden van faalcriteria per type experiment:
| Type experiment | Voorbeeld faalcriterium |
|---|---|
| Klantinterviews (wenselijkheid) | Minder dan 6 van de 15 geinterviewden beschrijven het probleem uit zichzelf |
| Landingspagina-test (wenselijkheid) | Minder dan 3% click-through op de call-to-action |
| Intentieverklaring (levensvatbaarheid) | Minder dan 2 van de 10 doelbedrijven tekenen |
| Prijstest (levensvatbaarheid) | Meer dan 40% van de prospects haakt af bij de voorgestelde prijs |
| Technisch prototype (haalbaarheid) | Systeem haalt de 95% nauwkeurigheidsdrempel niet binnen een sprint van 4 weken |
De faalcriteria zijn wat een experiment veranderen van een activiteit in een beslissingstool.
Stap 5: Voer het experiment gedisciplineerd uit
Deze stap klinkt vanzelfsprekend. Dat is het niet.
Gedisciplineerd een experiment uitvoeren betekent: testen met de juiste mensen, de data verzamelen die je vooraf hebt afgesproken, en het experimentontwerp niet halverwege aanpassen.
Drie regels die experimenten eerlijk houden:
Test met echte doelklanten. Niet collega’s. Niet je netwerk. Niet mensen op een vakbeurs die bij je stand stopten omdat ze je kennen. Echte prospects die bij je klantsegment passen en geen relatie met je bedrijf hebben. Kun je ze niet vinden? Dan zegt dat iets over het segment.
Verzamel de data die je vooraf hebt gedefinieerd. Voeg geen nieuwe metrics toe na het zien van vroege resultaten. Als je faalcriterium op conversie is gebaseerd, verzamel conversiedata. Ga niet ineens “engagement” meten omdat de conversiecijfers slecht uitvallen.
Pas het experiment niet aan nadat het gestart is. Realiseer je je halverwege dat het experimentontwerp gebrekkig is? Maak het af, documenteer wat er misging, en ontwerp een beter experiment. Aanpassingen tijdens de test ontkrachten alle data die je al hebt verzameld.
In B2B en maakindustrie-contexten duren experimenten langer omdat klanttoegang lastiger is. 15 interviews plannen met inkoopmanagers bij industriele bedrijven kost meer moeite dan 15 interviews met consumenten. Reken erop. Plan twee tot vier weken in voor B2B-klanttoegang in plaats van de ene week die werkt in consumentenmarkten. De discipline is dezelfde. Alleen de tijdlijn verandert.
Stap 6: Leg inzichten vast (niet alleen data)
Een experiment levert data op. Maar data is geen inzicht, geen lering.
Leren gebeurt wanneer je de data interpreteert tegen je oorspronkelijke aanname en faalcriteria, en vervolgens documenteert wat je nu weet dat je hiervoor niet wist. Bij deze stap haasten de meeste teams. Ze kijken naar de cijfers, vellen een snel oordeel, en gaan verder.
Neem de tijd. Documenteer vier dingen voor elk afgerond experiment:
Wat nam je aan? Herhaal de oorspronkelijke aanname precies zoals je die in Stap 1 hebt opgeschreven.
Wat heb je gevonden? Rapporteer de feitelijke data. Getallen, geen indrukken. “7 van de 15 geinterviewden beschreven het probleem uit zichzelf” en niet “de meeste mensen leken zich in het probleem te herkennen.”
Voldoet het bewijs aan je criteria of niet? Dit moet een simpele vergelijking zijn. Je hebt de drempel in Stap 4 vastgesteld. De data haalt die drempel of haalt hem niet.
Wat heb je geleerd dat je niet verwachtte? Dit is het meest waardevolle deel. Elk experiment onthult iets buiten de oorspronkelijke vraag. Een klant noemt een pijnpunt dat je niet had bedacht. Een prijstest toont dat klanten meer zouden betalen voor een andere versie van het product. Een haalbaarheidstest legt een technische afhankelijkheid bloot die niemand in kaart had gebracht. Leg dit vast. Deze inzichten worden vaak de input voor je volgende ronde van aannames in kaart brengen.
Bouw een simpel experiment-logboek. Het hoeft niet ingewikkeld te zijn:
| Veld | Inhoud |
|---|---|
| Geteste aanname | [De specifieke aanname uit Stap 1] |
| Type experiment | [Interview / landingspagina / prototype / etc.] |
| Faalcriterium | [De drempel uit Stap 4] |
| Feitelijk resultaat | [De gemeten data] |
| Uitkomst | [Geslaagd / Gefaald / Niet-conclusief] |
| Onverwachte bevindingen | [Wat heb je verder geleerd?] |
| Vervolgactie | [Wat verandert op basis van dit bewijs?] |
Dit experiment-logboek voedt direct in innovatie accounting, de manier waarop je voortgang rapporteert aan leiderschap in termen die zij begrijpen: risico verminderd, bewijs verzameld, beslissingen genomen.
Deze documentatie is belangrijk buiten het directe experiment. Wanneer je de volgende testronde draait, of wanneer leiderschap vraagt hoe het project vordert, heb je een helder bewijsspoor. Geen meningen. Geen PowerPoint-verhalen. Feitelijk bewijs gekoppeld aan specifieke beslissingen.
Stap 7: Neem de beslissing: pivot, doorgaan of stoppen
Elk experiment moet eindigen met een beslissing. Niet “interessant, laten we doorgaan” maar een heldere keuze gebaseerd op bewijs.
Er zijn vier mogelijke uitkomsten:
Doorgaan. Het bewijs ondersteunt de aanname. Ga door naar de volgende riskantste aanname op je geprioriteerde lijst. Vier niet te vroeg. Een geslaagd experiment valideert geen businessmodel. Het valideert een aanname van de vele.
Pivot. Het bewijs weerspreekt de aanname, maar de inzichten suggereren een andere richting die zou kunnen werken. Pas het specifieke bouwblok van je Business Model Canvas of Waarde Propositie Canvas aan waar de aanname bij hoort, en begin het proces opnieuw vanaf Stap 1 voor dat gewijzigde element.
Stoppen. Het bewijs weerspreekt een kernaanname en er is geen levensvatbare alternatieve richting. Dit is de moeilijkste beslissing, zeker in corporates waar projecten sponsors, budgetten en teams hebben. Maar een idee stoppen op basis van bewijs na twee weken testen, is oneindig beter dan het stoppen na 18 maanden ontwikkeling.
De beslissing tussen pivot, doorgaan en stoppen is het moment waarop politiek het meestal overneemt van bewijs. Ik behandel hoe je met die dynamiek omgaat in pivot of doorgaan: hoe neem je de beslissing.
Nog een experiment draaien. Soms is het resultaat niet-conclusief. Het experiment was niet goed genoeg ontworpen, of de steekproef was te klein. Dat is prima. Herontwerp het experiment en voer het opnieuw uit. Maar wees eerlijk over waarom je het opnieuw doet. “De data was oprecht niet-conclusief” is een geldige reden. “Het antwoord beviel ons niet” is dat niet.
Hier loopt het proces terug. Na elke beslissing keer je terug naar je aanname-kaart (Stap 2), kiest de volgende hoogste-prioriteit aanname, en herhaalt de cyclus. Elke loop vermindert onzekerheid. Na drie tot vijf loops heb je of voldoende bewijs om naar een businesscase te gaan, of je hebt geleerd dat het idee in de huidige vorm niet werkt.
Dat leren is geen falen. Dat is precies het punt van business ideeen testen.
Het volledige proces in een overzicht
| Stap | Actie | Output |
|---|---|---|
| 1. Aannames in kaart brengen | Extraheer uit BMC en VPC | Lijst van 15-30 specifieke aannames |
| 2. Prioriteren | Plot op belang vs. bewijs matrix | Top 3-5 aannames om te testen |
| 3. Experiment kiezen | Match type experiment bij type aanname | Experimentontwerp per aanname |
| 4. Faalcriteria opstellen | Definieer meetbare drempels | Geschreven criteria, goedgekeurd door team |
| 5. Experiment uitvoeren | Test met echte klanten, verzamel data | Ruwe data tegen gedefinieerde metrics |
| 6. Inzichten vastleggen | Documenteer bewijs, verrassingen, vervolgstappen | Experiment-logboek entry |
| 7. Beslissen | Pivot, doorgaan, stoppen of hertesten | Heldere beslissing met bewijsspoor |
Het proces is niet ingewikkeld. Wat het laat werken is elke stap in volgorde doorlopen en de oncomfortabele stappen niet overslaan, vooral Stap 2 en 4. Aanname-prioritering en faalcriteria bevatten de echte waarde. Sla die over en je voert experimenten uit die productief voelen maar niets veranderen.
Voor B2B-teams die dit proces doorlopen, behandelt customer discovery interviews voor B2B hoe je toegang krijgt tot de juiste mensen en de juiste vragen stelt in multi-stakeholder koopomgevingen.
Wil je zien hoe dit aanname-testproces past in de bredere methodologie naast het Business Model Canvas en Waarde Propositie Canvas? Begin met het overzicht business ideeen testen. Voor teams die deze aanpak vergelijken met Lean Startup of Design Thinking, zie business ideeen testen vs Lean Startup.
Voor organisaties die meerdere ideeen in verschillende stadia beheren, behandelt innovatie portfolio management hoe je bewijs uit aanname-tests gebruikt om investeringsbeslissingen te nemen over een heel portfolio. En als je je afvraagt of je organisatie klaar is om dit soort gedisciplineerd testproces te draaien, is de innovatie readiness assessment een goed startpunt.
Boek een Strategy Call over het testen van je business idee
In 30 minuten identificeren we je riskantste aanname en het snelste experiment om die te testen. Of boek een workshop waar je team in een dag echte experimenten ontwerpt en lanceert, met faalcriteria die vooraf vaststaan.
Frequently asked questions
Wat is een aanname in een businessmodel?
Een aanname in je businessmodel is iets dat waar moet zijn om je idee te laten werken, maar waar je nog geen bewijs voor hebt. Aannames komen uit elk bouwblok van je Business Model Canvas en Waarde Propositie Canvas: klanten willen dit (wenselijkheid), wij kunnen het bouwen (haalbaarheid), en we kunnen er geld mee verdienen (levensvatbaarheid). De riskantste aannames zijn de aannames die je hele model onderuit halen als ze niet kloppen.
Hoe bepaal je welke business aannames je eerst moet testen?
Gebruik twee criteria: belang (als deze aanname niet klopt, stort het hele businessmodel in?) en bewijs (hoeveel bewijs heb je al?). Zet je aannames in een 2×2 matrix. Test eerst de aannames in het kwadrant hoog belang, weinig bewijs. Dat zijn de aannames die je project kunnen doden en waar je vooral aan het gokken bent. Al het andere kan wachten.
Wat zijn faalcriteria en waarom zijn ze belangrijk?
Faalcriteria zijn specifieke, meetbare drempels die je vooraf vaststelt voor een experiment. Ze beantwoorden een vraag: welk resultaat vertelt ons dat we moeten stoppen? Bijvoorbeeld: als minder dan 4 van de 15 doelklanten bereidheid tot betalen tonen, stoppen we met deze richting. Zonder faalcriteria interpreteren teams elk resultaat als positief. Ze vooraf vaststellen is de belangrijkste stap in het hele testproces.
Hoeveel aannames moet je tegelijk testen?
Een aanname per experiment. Experimenten die meerdere aannames tegelijk testen maken het onmogelijk om te weten welke aanname het bewijs ondersteunt. Je kunt twee of drie experimenten parallel uitvoeren als ze verschillende aannames testen en je team de capaciteit heeft. Maar elk experiment moet een helder signaal opleveren over een specifiek punt.
Hoe lang duurt het om een business aanname te testen?
De meeste aannames kun je testen in een tot vier weken. Klantinterviews kosten dagen. Landingspagina-tests kosten een tot twee weken. Simpele prototypes twee tot vier weken. Duurt je experiment langer dan een maand? Dan ben je waarschijnlijk aan het over-engineeren. Het doel is snelheid van leren, niet perfectie van de test. In B2B en maakindustrie duren sommige experimenten langer door beperkte toegang tot klanten, maar ook daar is twee tot zes weken een realistisch doel.




