AI-expert Roeland de Bruin: “Dit is hét moment voor organisaties om hun AI-strategie op orde te brengen.”

AI wordt steeds krachtiger én risicovoller. Toch ontbreekt in veel organisaties een duidelijke strategie. Zonder heldere kaders loop je als organisatie juridische risico’s en stel je burgers mogelijk bloot aan onverantwoorde AI. Steeds meer onderdelen van de Europese AI-verordening treden in werking. Verantwoord gebruik van AI is niet alleen een morele, maar wordt ook een juridische plicht. Hoe geef je daar als professional invulling aan?

De EU AI Act – de basis voor het gebruik van AI

De Europese AI-verordening vormt het uitgangspunt voor verantwoord gebruik van AI in Europa. Hoe groter de risico’s voor fundamentele rechten, gezondheid, of veiligheid van burgers, hoe strenger de regels. Tegelijkertijd beoogt de verordening AI-innovatie stimuleren, wat leidt tot een spanningsveld tussen regelgeving en technologische ontwikkeling.

Dit komt tot onder meer tot uiting in de vele open, soms vage normen. Aan de ene kant bieden die flexibiliteit om de regels te implementeren en aan te passen aan de ontwikkelingen. Aan de andere kant is er weinig rechtszekerheid. Houvast is er deels in (enkele) duidelijke bepalingen, bijlagen, handleidingen en beleid van toezichthouders zoals het AI-bureau en de EDPB, en in handvatten die door experts uit de Verordening worden afgeleid. Verder is het wachten op nadere richtlijnen vanuit Brussel. Met name over general purpose AI en de co-regulering via CEN/Cenelec.

Het in de IT-sector welbekende, aloude adagium “garbage in == garbage out” vormt ook bij AI-gedreven systemen een groot gevaar voor burgerrechten wanneer men AI rücksichtlos inzet.

Mr. Dr. Roeland de Bruin LLM

Verschillende risicocategorieën bij AI-toepassingen

De AI Verordening maakt onderscheid tussen risicocategorieën, waarbij sommige toepassingen als zodanig risicovol worden geacht dat die verboden zijn (per 1 februari 2025). Daarbij moet je denken aan emotieherkenning op de werkvloer, of aan social creditscoringsystemen zoals die in China bestaan. Hoge risico’s worden toegeschreven aan AI-systemen die worden gebruikt in de zorg, het onderwijs, de financiële sector of de rechtspraak. Denk hierbij aan AI-systemen die gebruikt worden in voertuigen, in recruitmentprocessen, of aan systemen die biometrisch identificeren en emoties herkennen.

Kwaliteit van data speelt hierbij een cruciale rol. Het in de IT-sector welbekende, aloude adagium “garbage in == garbage out” vormt ook bij AI-gedreven systemen een groot gevaar voor burgerrechten wanneer men AI rücksichtlos inzet. Vooringenomenheid (bias), onvolledige data en technische kwetsbaarheden kunnen tot onbedoelde schade leiden. Vanwege het zelflerende karakter van AI-systemen is het risico op ontsporing reëel, vooral bij gebrek aan menselijk toezicht.

De AI Governance professional is onmisbaar in de praktijk

Naast de risico’s die de AI-verordening benoemt, is het advies aan aanbieders en gebruikers om de minder voor de hand liggende, maar potentieel ingrijpende risico’s te signaleren. Denk bijvoorbeeld aan hoe de toenemende afhankelijkheid van AI in combinatie met een hoge werkdruk gevolgen kan hebben voor het kritisch beoordelen van de AI-output. Wat is de impact hiervan op het denkvermogen van mensen? En hoe zit het met situaties waarin een AI-systeem wellicht ook betrouwbaarder is in het voorwerk dan een mens, vanwege de grote hoeveelheid brondata waaruit kan worden geput.

Ook inputdata verdient aandacht: AI-systemen en -databanken mogen geen ongecontroleerde toegang krijgen tot informatie die wordt beschermd door intellectuele eigendomsrechten of die persoonsgegevens of vertrouwelijke bedrijfsinformatie bevat. En dan hebben we het nog niet eens gehad over de ecologische voetafdruk van generatieve AI en hoe dit bijdraagt aan klimaatrisico’s, die ook tot het oogmerk van de wetgever behoren.

Juist dit soort vraagstukken vormen de kern van het werk van een AI Governance professional. En precies dat maakt dit werk zo interessant en betekenisvol.

Werk aan jouw expertise – en aan de toekomst van AI

In de cursus “AI Governance Officer – wordt de AI-strateeg voor jouw organisatie” staan zowel de evidente als de minder voor de hand liggende risico’s en kansen van AI centraal. Je benadert AI-beleid vanuit een technische, juridische en ethische invalshoek. Samen met andere professionals werk je aan casussen en problemen uit de praktijk, waarbij je rekening houdt met de organisatiebehoeften en complianceregels, zonder hierbij de belangen van de gebruiker uit het oog te verliezen. Zo ontwikkel je het vermogen om beleid te maken dat recht doet aan innovatie én aan maatschappelijke verantwoordelijkheid.

Je leert hoe je de controle krijgt over AI. Je ontwikkelt de kennis en vaardigheden vanuit strategisch, juridisch en ethisch gebied zodat je weet hoe AI op een verantwoorde manier kan worden ingezet.

Bekijk de cursus en schrijf je in

  • Klik hier voor meer info & aanmelden

    Cursus AI Governance Officer

    AI wordt steeds krachtiger én risicovoller. Met de komst van de EU AI Act wordt verantwoord AI-gebruik geen optie meer, maar noodzaak. In deze cursus leer je hoe je als AI Governance Officer de koers bepaalt: strategisch, ethisch en compliant.