Verantwoord omgaan met AI, kan dat wel?

Iedereen wil op de AI-trein springen, maar hoe doe je dat verantwoord? Alumna Lieke Dom adviseert organisaties over responsible AI en is betrokken bij GPT-NL. ‘AI is niet écht intelligent; het is statistiek. Toch moeten we grenzen stellen. Want het heeft machtige systemen gecreëerd en houdt ongelijkheid in stand.’

Auteur: Aafke Jochems | Fotografie: Yvonne Compier

Een van de grootste misvattingen die organisaties hebben, is dat AI intelligent zou zijn. ‘Het narratief is dat AI de mens kan nabootsen of zelfs overstijgen,’ begint Lieke. ‘Maar systemen zijn niet intelligenter dan mensen. Want een systeem heeft maar één manier van denken: binair. Het gaat om statistiek en categorieën. Ook taalmodellen – die dat op knappe en gedetailleerde wijze doen – maken een statistische inschatting van wat het volgende woord is. Voor ons als mensen is dit classificatiedenken slechts één manier om de wereld tot ons te nemen.’

Lieke adviseert bij TNO organisaties over het verantwoord inzetten van AI. Verder doet ze er onderzoek naar onbedoelde consequenties van AI. Ook doceert ze AI Ethics & Governance aan Beeckestijn Business School. Verantwoorde AI is trouwens een buzzword geworden, aldus Lieke: ‘Trustworthy AI of human-centered AI zijn ook goede benamingen.’

'Het narratief is dat AI de mens kan nabootsen of zelfs overstijgen, maar systemen zijn niet intelligenter dan mensen.'

Ethische vragen achter AI

Het zaadje van Liekes bevlogenheid voor de verantwoorde kant van AI is geplant aan het eind van haar bachelor Communicatiewetenschap aan de Universiteit Twente. Ze volgde daar de minor filosofie van technologie en werd erdoor gegrepen. Om meer te leren over hoe technologie in de praktijk wordt toegepast, rondde ze de master Digital Business and Innovation af aan de VU. Vervolgens behaalde ze de master Toegepaste Ethiek aan de Universiteit Utrecht waarmee haar skillset werd uitgebreid om ook naar de impact van deze toepassingen te kijken.

Snijvlak van technologie en ethiek

Haar studies kwamen samen toen ze meewerkte in het Responsible Innovation team van Google, waar de impact van AI zowel vanuit de toepassing als de maatschappij werd benaderd. Haar filosofische interesse bracht Lieke naar het snijvlak van technologie en ethiek: ze wil begrijpen hoe systemen werken én welke waarden daarin meespelen. ‘AI is een paraplu-term en de ontwikkelingen gaan razendsnel. Maar als je kijkt naar de ethische vragen die erachter liggen, staan die al eeuwen als een huis.’

Wat er vaak misgaat bij de inzet van AI

Op dit moment gaat alle aandacht uit naar generatieve AI en dan vooral naar taalmodellen. Terwijl er nog steeds grote risico’s kleven aan simpelere AI-systemen, zoals algoritmes, weet Lieke: ‘Men spreekt nu soms van een simpele AI-toepassing omdat generatieve AI complexer is. Maar ook bij machine learning zijn risico’s als vooroordelen en het versterken of in stand houden van ongelijkheid aanwezig. En de nadelige effecten ervan blijven vaak onzichtbaar. Dat zorgt voor ongelijkheid, en dat probleem is bij lange na nog niet opgelost.’

'Ook bij machine learning zijn risico’s als vooroordelen en het versterken of in stand houden van ongelijkheid aanwezig. En de nadelige effecten ervan blijven vaak onzichtbaar.'

De schijn van menselijkheid

Er ontstaan ook andere risico’s. Juist omdat AI niet intelligent is, maar wel enorm overtuigend kan overkomen. Zo gebruiken steeds meer mensen taalmodellen voor psychologische of medische ondersteuning. Lieke vindt dat verontrustend: ‘Iedereen kan een tool ontwikkelen waar ChatGPT achter zit en dat in een coach-jasje stoppen. Je wordt erin gezogen en het lijkt zo echt. Het is een grote valkuil, want een gesprek met een chatbot wordt niet gemonitord door een arts of psycholoog.’

Lieke stelt dan ook dat we grenzen moeten stellen aan AI. Ook om het narratief goed vorm te geven. En omdat er zulke machtige systemen zijn gecreëerd. ‘Er zijn partijen die de macht hebben over beslissingen die worden genomen over én door AI. Zij bevinden zich in de vormgevende positie. Je moet grenzen stellen aan die tech-bedrijven en hun leiders.’

'Er zijn partijen die de macht hebben over beslissingen die worden genomen over én door AI. Zij bevinden zich in de vormgevende positie. Je moet grenzen stellen aan die tech-bedrijven en hun leiders.'

Hoe je AI wél verantwoord kunt inzetten

Op de vraag hoe organisaties AI verantwoord kunnen inzetten en zich kunnen wapenen tegen schadelijke effecten, reageert Lieke resoluut: ‘Kennis.’ Daarna glimlachend: ‘Kiezen voor GPT-NL.’ GPT-NL is een taalmodel ontwikkeld door TNO samen met SURF en het Nederlands Forensisch Instituut. Lieke heeft mede de vier kernwaardes ervoor gedefinieerd: betrouwbaarheid, transparantie, wederkerigheid en soevereiniteit. ‘Die kernwaardes kun je zien als grenzen stellen. Én tegelijkertijd zijn ze ook grensverleggend, want onze aanpak vereist een nieuwe manier van innoveren.’

GPT-NL is verantwoord alternatief

GPT-NL gebruikt enkel data die rechtmatig zijn verkregen, is transparant over de ontwikkeling en kent een eerlijk verdienmodel waarbij dataleveranciers delen in de opbrengsten. Dat neemt zorgen weg over privacy, intellectueel eigendom en gebrek aan controle bij internationale modellen. Voor organisaties is het daarom een verantwoord alternatief. Lieke: ‘Voor de duidelijkheid, het is geen Nederlandse ChatGPT. Zie het als een motor waar een organisatie dan zijn eigen AI-tool veilig mee kan ontwikkelen. Zowel de organisaties die GPT-NL willen inzetten, als de partijen die de data aanleveren voor de ontwikkeling, zien de noodzaak in van soevereiniteit: geen afhankelijkheid meer van Amerikaanse tech-bedrijven.’ Begin 2026 is de eerste versie klaar.

Kennis van je blinde vlekken

Wat is volgens haar de grootste uitdaging voor organisaties die verantwoord met AI willen werken? ‘Kennis hebben van het systeem én van je eigen blinde vlekken,’ antwoordt ze. ‘Ik begrijp dat niet elke organisatie AI zelf kan ontwikkelen of experts in huis kan halen. Maar het is wel mogelijk te achterhalen wat je blinde vlekken zijn. Vanuit daar kennis opdoen en vooral: wat zijn de grenzen waarbinnen je te werk kan gaan? Wat doe je om risico’s te mitigeren? En weet je voldoende van het systeem om verantwoordelijkheid te nemen voor de keuzes die zijn gemaakt?’

AI is politiek geworden

De laatste jaren verschuift het gesprek over verantwoorde AI. Een paar jaar geleden ging het vooral over hoe een dataset eruitziet en of een algoritme discriminerend is. ‘Daar valt nog steeds heel veel op te winnen,’ aldus Lieke. ‘Inmiddels gaat het meer over duurzaamheid, over grondstoffen, over soevereiniteit. AI is een politieke topic geworden en daarmee ook responsible AI. Ideaal zou zijn als responsible AI verdwijnt als discipline en AI-ontwikkelaars niet alleen technische maar ook ethische skills hebben.’

'Inmiddels gaat het meer over duurzaamheid, over grondstoffen, over soevereiniteit.'

Hoe grenzen verleggen

‘Ik zie ook hoe AI kan helpen grenzen te verleggen, bijvoorbeeld bij creatieve processen,’ besluit Lieke. ‘Maar weet wel, AI wordt getraind met westerse data. Die westerse blik is dominant, de output homogeen.’ Ook voor organisaties ligt hier een kans om grenzen te verleggen: ‘Er is een dominante focus op efficiëntie maar je kan kijken naar meer dan alleen het drukken van kosten. Als iedereen met AI sneller werkt, maar zijn werk niet meer leuk vindt, wat dan? Of als je klanten niet op een chatbot zitten te wachten? Wees bereid om de inzet van AI ook te evalueren op medewerkersgeluk of bijvoorbeeld vertrouwen. Dát is grenzen verleggen.’

'Er is een dominante focus op efficiëntie maar je kan kijken naar meer dan alleen het drukken van kosten. Als iedereen met AI sneller werkt, maar zijn werk niet meer leuk vindt, wat dan?'

DEEL DEZE PAGINA