Van experiment naar uitvoering: de GenAI-kloof dichten
De afgelopen twee jaar hebben organisaties miljarden geïnvesteerd in generative AI (GenAI), zo blijkt uit cijfers van IDC.1 De adoptiegraad is hoog: binnen de meeste enterprises wordt geëxperimenteerd met AI-tools of draaien er pilots. Uit onze Enterprise AI Maturity Index blijkt dat 67% van de organisaties wereldwijd aangeeft dat AI hun bruto omzet heeft verhoogd. Toch is daadwerkelijke transformatie nog lastig te bereiken. Veel pilots worden nooit meer dan een pilot – of leveren geen meetbare impact.2
Deze groeiende kloof tussen experimenteren met GenAI en de technologie schaalbaar in kunnen zetten wordt vaak de ‘GenAI Divide’ genoemd, de GenAI-Kloof. Aan de ene kant van deze kloof vind je proof-of-concepts en geïsoleerde use cases. Aan de andere kant van de kloof is een duurzame transformatie onderdeel van dagelijkse, zakelijke processen.
Waarom lopen zoveel organisaties vast? Niet vanwege technologie, infrastructuur of wetgeving. Veel GenAI-tools integreren niet in workflows, houden geen rekening met context en verbeteren zichzelf niet in de loop der tijd. Het dichten van deze kloof vraagt om een andere mindset: workflow-first denken, agentic systemen die leren en governance als basis voor vertrouwen.
Van pilots naar workflow-gedreven transformatie
GenAI-tools kunnen veel toegevoegde waarde bieden voor individuele gebruikers bij het bijschaven van teksten, samenvatten van content en analyseren van data. Maar deze productiviteitswinst wordt zelden vertaald naar daadwerkelijke impact op de winst- en verliesrekening. De organisaties die werkelijke waarde weten te behalen, maken GenAI onderdeel van dagelijkse workflows, bijvoorbeeld door:
- Goedkeuringen voor inkoop sneller te verwerken
- End-to-end toewijzing en afhandeling van klantenservice-verzoeken
- Versnelde afhandeling van HR- of IT-cases
Bij deze voorbeelden is GenAI geen losse tool. Het is verweven met de dagelijkse werkzaamheden. Dat is het grote verschil tussen pilots die tot stilstand komen en oplossingen die succesvol schalen.
Hypothese-gedreven adoptie
Een veelvoorkomende valkuil is het draaien van technology-first pilots, waarin effectief getest wordt wat GenAI kan, zonder dat daar een zakelijke doelstelling aan ten grondslag ligt is. Een betere benadering is hypothese-gedreven:
- Definieer de uitdaging: wat wil je verbeteren?
- Formuleer een hypothese: als AI wordt toegepast binnen een workflow, wat is dan de meetbare impact (bijvoorbeeld minder fouten, versnelde cyclustijd, hogere klantretentie)?
- Test in een afgebakende omgeving: behoud een duidelijke en beheerbare focus. Maak het niet te groot en complex.
- Leer van ieder experiment: elke test levert informatie op. Zelfs wanneer resultaten tegenvallen, zul je inzichten opdoen die je helpen om de volgende stap te bepalen – altijd gekoppeld aan de zakelijke doelstelling.
- Schaal bij bewezen succes: een succesvol proof-of-concept kan doorontwikkeld worden tot een workflow die productieklaar is.
Door deze cyclus steeds stap voor stap te herhalen, ben beter in staat om zakelijke doelstellingen te behalen. Op deze manier worden pilots de bouwstenen voor het verantwoord schalen van AI.
Agentic AI: pak de kloof aan
Non-agentic AI-workflows kampen met verschillende uitdagingen: het ontbreekt ze aan geheugen, context en aanpasbaarheid. Tools die steeds opnieuw ingesteld moeten worden of de weg kwijtraken in complexe workflows, ontstijgen zelden de pilotfase. Agentic AI verandert dit. Het herinnert, past zich aan en orkestreert workflows van begin tot eind. In plaats van statische output te produceren, hebben AI-agents een zelflerend component en handelen ze autonoom. Early adopters passen deze agents nu al toe in:
- Klantenservice, waar AI-agents verzoeken oplossen zonder hulp
- Finance, waar routinematige goedkeuringen zijn geautomatiseerd
- Sales, waar AI-agents engagement bijhouden en follow-ups automatisch in gang zetten
Governance als fundament voor schalen
Het opschalen van AI is niet alleen een technologische uitdaging. Het is ook een uitdaging op het vlak van governance. Leidinggevenden noemen consequent vertrouwen, databescherming en verantwoording als kritieke elementen voor adoptie. Zonder governance loopt AI het risico om een schaduw-economie te worden van tools die zonder toezicht worden gebruikt door werknemers. Met governance wordt AI juist een strategisch element: vertrouwd, compliant en zonder zakelijke risico’s.
Sterke governance biedt een leidraad voor:
- Het monitoren van modelprestaties
- De garantie van een ethisch en verantwoord gebruik van AI
- Het beschermen van data
- Het mogelijk maken van transparantie en verantwoording
Dit maakt het voor leiders mogelijk om AI verantwoord op te schalen.
De route naar voren
Het dichten van de ‘GenAI Divide’ vraagt om discipline, ontwerp en visie. Organisaties die hier succesvol in zijn:
- Investeren niet meer in statische pilots en focussen op het verweven van AI in workflows
- Omarmen agentic AI die kan leren, herinneren en aanpassen
- Passen een hypothese-gedreven aanpak toe om stap voor stap te experimenteren, leren en schalen
- Stellen governance verplicht als de basis voor vertrouwen en schalen
Degenen die vooroplopen combineren ambitie met discipline: groot denken, klein beginnen, nu handelen en snel leren.
Ontdek hoe ServiceNow jou kan helpen AI aan het werk te zetten voor mensen.
1 IDC, March 2025, Successfully Moving Enterprise GenAI from Proof of Concept to Production
2 MIT, July 2025, The GenAI divide, State of AI in Business 2025