Sla over naar inhoud
Alle inzichten

ROI van AI: hoe meet je echte waarde?

Een framework voor het inschatten en meten van AI-waarde, zonder fake percentages of leveranciers-grafieken. Wat wij vooraf afspreken, en hoe we het achteraf rapporteren.

Vraag aan een AI-leverancier wat de ROI is, en je krijgt een percentage. Vraag aan een tweede leverancier, en je krijgt een ander percentage. Beide cijfers zijn niet uit jouw organisatie afgeleid. Hier is ons framework.

Wat kost het?

Per traject hangt dit af van scope. Een typische pilot vraagt om ontwikkeluren (we werken in dagdelen), een tooling-keuze (Copilot-licentie, of API-calls bij Claude/GPT), en interne tijd van het team waarvoor de functie gebouwd wordt. Wij ramen vooraf in een range, niet als vast bedrag, omdat de eerlijke marge ergens tussen de 20 en 40 procent zit zolang de use-case nog beweegt.

Wat levert het op?

Wij vragen vooraf om twee meetbare uitkomsten: een handwerk-metriek (uren per week, of doorlooptijd per case) en een kwaliteit-metriek (fouten, klacht-frequentie, of een eenvoudige score). Niet drie metrieken, niet zes; twee. Anders wordt het te ingewikkeld om bij te houden.

Wat is de meet-termijn?

Doorgaans drie maanden vanaf go-live. Korter is te vroeg (adoptie-curve nog niet stabiel), langer kost te veel meetdiscipline. Na drie maanden weet je of de pilot bewijs heeft geleverd.

Wanneer zeggen we "het werkt"?

Als beide metrieken meetbaar de goede kant op zijn bewogen ten opzichte van een vooraf gemeten nulwaarde. Niet "het voelt sneller". Niet "het team is enthousiast". Dat is geen onbeleefdheid, dat is rigueur.

Wanneer zeggen we "het werkt niet"?

Als na drie maanden geen meetbare verbetering zichtbaar is, of als de kwaliteit-metriek verslechtert. Dan stoppen we de pilot, schrijven we op wat we hebben geleerd, en gaan we niet door alleen omdat er al geld in zit.

Voor wie meer wil weten over hoe wij projecten opzetten, zie de [AI-hub](/ai). Voor een readiness-scan: [/scan/ai-readiness](/scan/ai-readiness).