
AI kan binnenkort op functioneringsgesprek
Kunstmatige intelligentie verandert de samenleving. Mirko Schäfer en Iris Muis van Data School doen hier onderzoek naar en bieden tools en onderwijs om beter met AI om te gaan. “Als we over vijf jaar terugkijken, hoop ik dat we zeggen: best dom dat we dachten dat AI een oplossing voor alles was”, vertelt Muis.
“AI is niet neutraal. Algoritmes bevatten altijd bepaalde aannames,” vertelt Schäfer. “Bijvoorbeeld bij een gemeentelijk algoritme dat bepaalt wie onder de armoedegrens valt en welke processen dan opgestart worden. Dat kunnen harde aannames zijn zoals de definitie van armoede en softe. Een sociaaldemocratische gemeente zou burgers willen waarschuwen om geen grote aankopen te doen als zij de grens naderen, terwijl in een liberale gemeente de focus ligt op eigen verantwoordelijkheid. Politieke kleur heeft ook effect op inkoopbeleid. In een groene gemeente zullen large language models en andere zaken met een grote milieu-impact waarschijnlijk niet worden gebruikt.”
Evidence-based besturen
Politieke waarden worden ingebouwd in een algoritme en zouden moeten meebewegen na verkiezingen met de samenstelling van gemeenteraden. AI-geletterdheid binnen overheden is daarom essentieel. “Democratie verandert door het gebruik van data en AI. De grote hoeveelheid data die nu beschikbaar is, zorgt voor nieuwe inzichten. Je kunt als wethouder nu meer evidence-based besturen. Maar realiseer je dat gegevens niet neutraal zijn. Wij zien gemeenteraden nu vaak de vraag stellen: hebben wij zelf de expertise om kritisch te zijn als het dossier digitale zaken wordt besproken? Er is vaak een technocratisch begrip van AI bij bestuurders, zonder dat ze de technologie zelf begrijpen,” zegt Schäfer. “Dat kan leiden tot verkeerde aannames over wat AI kan en hoe het zou moeten worden ingezet.”
Tools voor verantwoorde AI
Professionals hebben verschillende behoeften als het gaat om AI-geletterdheid. Bestuurders hebben behoefte aan een realistisch beeld van data en AI en welke politieke consequenties dat heeft, terwijl ambtenaren willen weten hoe ze AI verantwoord kunnen inzetten in hun dagelijkse werk. Verantwoorde AI draait om eerlijkheid, uitlegbaarheid en controleerbaarheid. Het mag geen groepen benadelen of bevoordelen en moet transparant zijn in de manier waarop beslissingen tot stand komen. De Data School ontwikkelde daarom tools zoals De Ethische Data Assistent (DEDA) voor het in kaart brengen van ethische kwesties en het Impact Assessment Mensenrechten en Algoritmes (IAMA) voor het maken van afwegingen.
AI 'op sollicitatiegesprek'
“Je wilt voorkomen dat algoritmes onbedoeld vooroordelen versterken,” zegt Schäfer. “Er moeten mechanismen zijn waarmee burgers bezwaar kunnen maken. Als gemeente moet je vervolgens snel kunnen ingrijpen.” De aandacht verschuift nu dus meer naar effectieve controlemechanismen. Muis: “We gebruiken vaak de analogie dat AI taken van medewerkers gaat overnemen. Voordat je AI gaat inzetten zou je een sollicitatiegesprek moeten voeren om te weten: is dit type AI eigenlijk wel geschikt voor deze taken? Dat sollicitatiegesprek doe je met het IAMA. Als AI deze toets doorstaat, kan hij aan de slag. Ongeveer elk jaar hebben jij en ik een functioneringsgesprek. Dat zou AI ook moeten hebben. Wij ontwikkelen daarvoor nu een beknopte vragenlijst. Doet AI nog waarvoor hij is ingezet? Hebben zich incidenten voorgedaan? Hoe is daarmee omgegaan? Zijn er mogelijkheden voor ontwikkeling? Of is er nieuwe technologie op de markt die dit beter zou kunnen? Ook AI wordt tenslotte wel eens vervangen.”

Bijsluiter
Over vijf jaar hopen Muis en Schäfer dat het vanzelfsprekend is om AI kritisch te benaderen. Schäfer: “Als je iets aanschaft kijk je dan standaard naar de bijbehorende datasheet of modelcard. Daarop vind je informatie over hoe de data is verzameld, in welk kader, in welke context en wat de beperkingen zijn. Of bij een model: is er een fairness check gedaan? Zijn er valkuilen? Waarvoor kun je het model niet gebruiken?” Muis vult aan: “Je kunt het zien als een bijsluiter bij medicijnen. Die zit er standaard bij. Je neemt die niet van A tot Z door, maar je kunt erop kijken als het nodig is. En iets anders. Ik zou willen dat we over vijf jaar terugkijken en zeggen: best dom dat we dachten dat AI een oplossing was voor alles. We weten nu dat het vooral waarde heeft voor specifieke doelen.”
Meer weten?
Wil je je verdiepen in verantwoord AI-gebruik? Lees het rapport Opgave AI van de Wetenschappelijke Raad voor het Regeringsbeleid. En begin de demystificatie bij jezelf: begrijp wat AI wel en niet kan door het boek AI Snake Oil van Arvind Narayanan en Sayash Kapoor te lezen. Meer weten over AI en mensenrechten? Lessons learned vind je in het rapport IAMA in actie.
Nederland heeft een rijk ecosysteem voor AI waarin je snel kennis kunt opdoen. Enkele voorbeelden: het congres Overheid 360 kan interessant zijn, PIANOo (expertisecentrum voor aanbesteden van het ministerie van Economische Zaken) biedt informatie over inkoop van AI en de Vereniging Nederlandse Gemeenten heeft een community AI en algoritmen.
Lees over de rol van statistiek. Of volg een van de cursussen en trainingen van de Universiteit Utrecht.
De Data School - onderdeel van de faculteit Geesteswetenschappen - onderzoekt hoe big data en AI invloed hebben op burgerschap en democratie en hoe dit het openbaar bestuur en de mediasector transformeert. Het onderzoek levert ook toepasbare oplossingen op, zoals impact assessments en tools voor het implementeren van verantwoorde data- en AI-praktijken.