header, .header, #header, .page-header, .hero { display: none !important; visibility: hidden !important; height: 0 !important; overflow: hidden !important; }

AI bij 2Contact: Lesson Learned

Vijf lessen uit onze AI implementaties

Iedereen wil iets met AI. Maar tussen willen en een werkende implementatie ligt een wereld van verschil. Dat merkten we ook bij 2Contact. We gingen van eerste tests naar dagelijks gebruik en leerden ondertussen een aantal belangrijke lessen. Hier zijn onze vijf belangrijkste inzichten.


Les 1: Rommel erin = rommel eruit

AI werkt niet beter dan de input die jij aanlevert.

De uitdaging:
Het klinkt als een open deur, maar deze les blijft zich op allerlei manieren opnieuw aandienen: AI kan alleen goed werk leveren als de basis klopt. En laat daar nou net vaak de crux zitten. Wij liepen in het begin tegen alles aan wat je kunt verzinnen: transcripties waarin cruciale data als datumnotatie, bedragen of namen niet consistent werden overgenomen. Prompts die te breed of te wollig waren, waardoor het model zelf maar iets verzon. En data die onvoldoende gestructureerd of eenduidig was. Het gevolg? Output die bij de eerste lezing geloofwaardig leek, maar in de praktijk gewoon niet klopte. En dat merk je vaak pas écht als een tool live staat.

De oplossing:
We zijn veel kritischer geworden op inputkwaliteit. Zo gebruiken we de transcripties via Whisper alleen nog als we weten dat de audiokwaliteit goed genoeg is én het onderwerp zich leent voor spraakherkenning. 

Prompting is teruggebracht tot de essentie: wat wil je écht weten of laten doen? Eén taak per prompt, maximaal voorspelbaar. Complexe prompts zijn uit den boze, die halen we uit elkaar in kleinere stappen. (Komen we bij les 3 op terug!) En dat betekent ook: slim ontwerpen aan de achterkant, zodat de gebruiker aan de voorkant niet overladen wordt met losse flodders. Beter tien kleine taken die werken, dan één grote die faalt.

 

Les 2: Geen guardrails? Geen vertrouwen.

Zonder controlemechanismen weet je niet wat je AI doet.

De uitdaging:
AI is krachtig, maar ook grillig. Zeker als je het inzet voor zaken waar een uitkomst directe gevolgen heeft voor een persoon: zoals kwaliteitsbeoordelingen, sollicitaties of selectieprocessen. In zulke situaties móét je kunnen vertrouwen op wat eruit komt.  De eerste keren dat de output afweek van onze verwachtingen, dachten we nog: zal wel een incident zijn. Maar als je een score toekent die impact heeft op iemands functioneren of salaris, dan kun je natuurlijk niet leunen op aannames. Zonder guardrails vaar je blind op een black box die soms goed werkt en soms totaal niet.

De oplossing:
We hebben stapsgewijs een set aan controlemechanismen ingebouwd. Cosine similarity helpt ons om te bepalen of AI-uitkomsten voldoende in lijn zijn met referentievoorbeelden. We bouwen cases met door mensen gevalideerde uitkomsten, zodat we AI-uitvoer kunnen benchmarken. We hanteren afwijkingsgrenzen: als een uitkomst teveel afwijkt van het verwachte patroon, krijgt een mens de eindbeslissing. 

En we splitsen de taak: AI doet bijvoorbeeld de eerste beoordeling (‘goed’ of ‘niet goed’), maar de interpretatie of berekening volgt in een gecontroleerde omgeving zoals Python. Want vertrouwen bouw je niet op technologie, maar op controle over die technologie.

 

 

Les 3: KISS, keep it simple, stupid

Hoe complexer je prompt, hoe groter de puinhoop.

De uitdaging:
AI lijkt alles te kunnen, dus is het verleidelijk om 'm alles tegelijk te laten doen. Valkuil waar we ook gewoon ingestapt zijn: een lang promptverhaal met drie taken erin, een samenvatting, een beoordeling én een vervolgsuggestie. Want dat lijkt zo lekker efficiënt. 

Tot we merkten dat het model óf de draad kwijt raakte, óf allerlei onbedoelde conclusies trok. Vooral in modellen zoals Open AI’s 4.0 mini zie je dat die gevoeligheid voor complexiteit zich keihard wreekt. En als je dan ook nog probeert om al die output netjes in een gebruikersinterface te verwerken, raakt het overzicht volledig zoek. De gebruiker ziet door de bomen het bos niet meer.

De oplossing:
We hebben de promptstructuur herzien: één taak, één prompt. Niet meer. Zelfs als dat betekent dat we er tien achter elkaar moeten zetten. Die eenvoud zorgt voor betrouwbaarheid. 

En ja, dat betekent wél dat we onze UI slim hebben moeten inrichten. Want losse output in een rommelig scherm is net zo onbruikbaar als een hallucinerend antwoord. 

Dus bouwen we samenvattingen, we laten tussenresultaten automatisch doorsturen en we verwerken alleen de essentie in de interface. Ook experimenteren we met pre-chunking: grote teksten of opdrachten worden opgedeeld vóór ze de AI in gaan. Want hoe cleaner de opdracht, hoe cleaner de uitkomst.

 

Les 4: Zonder mensen geen magie

Techniek zonder adoptie is gewoon een mislukt project.

De uitdaging:
Je kunt een geniale AI-assistent bouwen, als niemand ‘m gebruikt, ben je precies nergens. Het blijf ook bij ons wel eens oorverdovend stil. Mooie tool, demo was top, maar drie dagen later: nul interactie. Waarom? Omdat je pas winst boekt als de gebruiker zich herkent in het probleem én de oplossing. We merkten dat sommige medewerkers zich afvragen: wat moet ik hiermee? Waarom zou ik het anders doen? Collega’s zitten soms zo diep in hun eigen werkprocessen, dat ze AI zien als ‘iets voor erbij’ in plaats van een integraal hulpmiddel.

De oplossing:
We zijn gestart met interactieve sessies waarin we AI niet alleen uitleggen, maar tastbaar maken. We laten medewerkers zelf scenario’s bedenken, vragen ze om input én geven ze ownership over het vervolg. 

Het “what’s in it for me” is altijd leidend. We benoemen ambassadeurs op de werkvloer, mensen die het al gebruiken en er enthousiast over zijn. Die zijn geloofwaardiger dan elke PowerPointpresentatie. We geven feedback persoonlijk terug én bouwen het meteen in. Geen adoptie zonder eigenaarschap. En geen eigenaarschap zonder betrokkenheid.

 

Les 5: Alles kan, maar niet alles tegelijk

AI opent honderd deuren. Jij moet kiezen welke je opent.

De uitdaging:
Zodra je met AI werkt, zie je overal kansen. Alles lijkt mogelijk. En dat is precies het risico. Want die overvloed kan verlammend werken. We betrapten onszelf op eindeloos doorontwikkelen aan iets wat al goed genoeg was. Of op het doorschuiven van projecten omdat er ‘misschien nog iets beters’ te maken was. En dat alles terwijl de operatie gewoon doorgaat en de mensen die je nodig hebt schaars zijn. AI is natuurlijk geen speeltje: het is een strategisch instrument. Maar dan moet je wel weten wat je nú nodig hebt, en wat nog even kan wachten.

De oplossing:
We hanteren een pragmatische aanpak. Goed genoeg is soms echt goed genoeg. We maken bewuste keuzes: wat bouwen we nu, wat parkeren we, en wat laten we los? Ja, op termijn willen we geavanceerdere integraties met Python, betere pre-processing met regex en dynamische evaluatie via meerdere modellen. (Ben je er nog?)

Maar vandaag? Vandaag bouwen we iets simpels dat waarde toevoegt. We evalueren, verbeteren, en dan weer door. En die roadmap? Die blijft levend, maar niet leidend. Want wie álles wil bouwen, levert uiteindelijk niks op.

 

Tot slot

AI leert je niet alleen iets over technologie. Het houdt je óók een spiegel voor over je processen, je team en je besluitvorming. Want hoe goed je model ook is, het werkt alleen als je organisatie meebeweegt. Wij hebben inmiddels tientallen dingen geleerd. Sommige met vallen en opstaan. Andere dankzij het team op de vloer dat scherp blijft meedenken. 

De grootste winst? Die zit niet in de tool. Die zit in hoe jij ermee leert werken. En in onze ervaring: hoe vaker je ermee werkt, hoe meer je ontdekt wat er echt toe doet.

 

cover-image
cover-image

Wij maken op deze website gebruik van cookies om het gebruik van deze website en daarbuiten te vergemakkelijken, de prestaties en gebruikerservaring te verbeteren en de relevantie van het aanbod te verhogen. Klik op akkoord om aan te geven dat je instemt met ons privacy statement.