Blog | Data Expo

Wie graait er in mijn cookietrommel?

Geschreven door Thijs Doorenbosch | 08 juli 2025

Maar om daarvan af te komen, moet ik onbekende bedrijven inzicht geven in alles wat me wèl interesseert. Door het plaatsen van cookies toe te staan geef ik toestemming mijn gangen op internet — zakelijk en privé — te laten volgen. Ik heb geen zicht op wat daarmee allemaal aan data worden verzameld, en ik heb geen idee wie of wat daar vervolgens mee wordt gedaan. Het doorspitten van paginalange, onnodig (en bewust) ingewikkelde gebruiksvoorwaarden op elke site behoort in ieder geval niet tot mijn interesses. Het enige dat ik merkte was dat ik reclame kreeg voor spullen of diensten die ik inmiddels al had besteld, soms nog tot weken of maanden daarna. Sindsdien blokkeer ik elk cookie dat ik maar kan blokkeren. 

Roep om Explainable AI
Maar stel dat ik beter inzicht zou krijgen in de mechanismen waarmee een advertentie op mijn scherm verschijnt? Welke data gaan naar wie en waarom? En hoe werkt het algoritme dat bepaalt welke advertentie ik zie? De roep om Explainable AI (XAI) klinkt in steeds meer sectoren. Medisch specialisten gebruikten als eerste AI voor beeldanalyse en daarna voor een second opinion bij het stellen van een diagnose. Al snel wilden zij weten hoe de algoritmen tot hun adviezen komen. Bij ethische vraagstukken is begrip van de stappen die een algoritme maakt, essentieel. Daarom is XAI ook onmisbaar voor de inzet van kunstmatige intelligentie bij politiewerk, juridisch onderzoek en fraudedetectie. Zonder uitleg houdt bewijsvoering geen stand voor de rechter. Maar ook in de luchtvaart is XAI belangrijk. Denk aan technici en piloten die willen weten hoe AI-systemen tot bepaalde aanbevelingen komen, bijvoorbeeld bij het testen van systemen in gesimuleerde omgevingen voordat ze operationeel worden ingezet. 



Nog weinig licht in Black box 
Volle kracht vooruit dus voor XAI, zou je denken. Toch zitten er een paar addertjes onder het gras. AI uitlegbaar maken, vereist extra stappen in een toch al energievretend proces. Ook verhoogt uitlegbaarheid de complexiteit van AI-modellen, waardoor implementatie en onderhoud lastiger worden. Bovendien nemen de prestaties van modellen af naarmate ze groter en complexer worden. En dan zijn de populaire Large Language Models (LLM), waarop eigenlijk alle chatapps zijn gebaseerd, zogeheten black box-modellen waarbij transparantie creëren per definitie lastig is. Er zijn wel ontwikkelingen zoals LIME (Local Interpretable Model-agnostic Explanations) en SHAP (SHapley Additive exPlanations), maar de resultaten daarvan kom ik als consument nog niet tegen. Misschien stimuleert de Europese AI Act, met de strengere eisen aan transparantie, webbedrijven om XAI-methoden te integreren in hun LLM’s. Tot ik weet hoe de advertenties op mijn scherm komen, houd ik in ieder geval mijn cookietrommel dicht.