Ik zag het een keer gebeuren terwijl ik het spektakel bekeek vanaf een terras met een lekker glaasje wijn in de hand. Je mag aannemen dat iedereen die zich op die rotonde begeeft, een rijbewijs heeft en de verkeersregels kent. Het probleem met Place Charles de Gaulle is dat bij het oprijden van het plein de omstandigheden opeens extreem complex worden, zeker voor een automobilist die gewend is aan overzichtelijke kruisingen en stoplichten.
Chatbot tussen de vangrails
Iets vergelijkbaars gebeurt met AI-agenttechnologie. Je begint in de experimenteerfase met een gecontroleerde omgeving en duidelijke regels, maar belandt na de implementatie in onverwacht lastigere situaties. Hoewel veel bedrijven sowieso nog worstelen met de juiste implementatie, zoals onlangs bleek uit een McKinsey-rapport, zijn er ook steeds meer successen te melden. Organisaties zetten agenttechnologie bijvoorbeeld al in om de interactie met klanten veel slimmer te maken. Chatbots zijn dan niet langer irritante beslisboomgebaseerde hulpjes, maar kunnen echt klantvriendelijk helpen, bijvoorbeeld door online een schadeafhandeling te begeleiden en klantvragen zinvol te beantwoorden.
In zo’n geval gaat het vaak nog om een relatief eenvoudige agent. Die communiceert via genAI heel natuurlijk met een klant. Met de vraagstelling die daaruit volgt, zoekt de agent iets op in een kennissysteem en zet een actie in gang in een backoffice-applicatie. Het resultaat geeft de agent weer terug aan de klant. De ontwerpers hebben daarbij goed nagedacht over het beperken van de bevoegdheden van de agent en de regels en guardrails vastgelegd in AI-governance.
Agents in de problemen
Na een succesvolle implementatie borrelen al snel ideeën op waar de agenttechnologie nog meer kan worden ingezet of hoe de functies van de chatbot kunnen worden uitgebreid. Vervolgens komen er meer agents die elkaar opdrachten geven en informatie uitwisselen. Met elke nieuwe agent neemt de complexiteit toe en daarmee ook het risico dat er onvoorziene situaties ontstaan. De samenwerkende agents kunnen bijvoorbeeld verkeerde beslissingen nemen op basis van aannames van een andere agent of zich baseren op onvolledige data. Het gevolg kan zijn dat ze onbedoeld data wissen of foutieve acties uitvoeren waardoor processen worden verstoord. Doordat agents taken met een heel hoge snelheid uitvoeren, richten foutieve handelingen al gauw veel meer schade aan dan wanneer een mens die taken zou uitvoeren.
Veel van de tools om de risico’s van agents te beperken zijn gericht op monitoring en preventie van foutieve handelingen. Ze bieden weinig of geen hulp wanneer het toch fout gaat, waarschuwde Richard Cassidy, EMEA CISO bij Rubrik onlangs in een opinie-artikel bij ComputerWeekly. Zijn advies is om – net als bij de voorbereidingen op een cyberaanval – ervoor te zorgen dat IT-systemen waarmee agents interacteren, geschikt zijn voor een onmiddellijke rollback. Zo kun je voorkomen dat foutieve handelingen van een agent de bedrijfscontinuïteit in gevaar brengen. Bovendien moeten de agents voldoende log-informatie genereren zodat niet alleen snel kan worden vastgesteld wat er misging, maar ook de oorzaak.
Als de gendarme arriveert
De onfortuinlijke automobilisten op het Place Charles de Gaulle hebben weinig aan zo’n advies. Ze zullen het vooral moeten hebben van de positie van de deuken in hun auto’s en mogelijk de verklaringen van omstanders om de toedracht van hun ongeluk duidelijk te krijgen als de gendarmerie arriveert. Een rollback is voor hen niet mogelijk zonder een kostbaar bezoek aan de garage en hun reputatie is blijvend beschadigd. Laat de komst van agenttechnologie niet leiden tot reputatieschade bij organisaties, nu er nog goede beschermende maatregelen zijn te nemen.
![]()
Hongerig naar meer data gerelateerde content? Schrijf je in!