Wat is het grootste risico van de toepassing van AI in het dagelijks leven?
Het allergrootste gevaar is dat mensen er blind op vertrouwen dat het allemaal klopt wat de AI-modellen uitspugen. Ik haal in mijn boek verschillende voorbeelden aan van over de hele wereld waarbij overheden en bedrijven, maar ook bijvoorbeeld rechters of zorgpersoneel, de fout ingaan omdat ze hun beslissingen baseren op AI-systemen. Zonder na te gaan of er misschien een bepaalde bias in zit. Welke datasets worden er gebruikt, wie heeft de algoritmes ontwikkeld? – die vragen worden niet gesteld. We hebben het vaak over het behoud van de ‘menselijke check’ bij het gebruik van AI, maar je wilt ook niet dat mensen in de toekomst alleen maar gaan valideren wat AI ons voorschotelt. En daar koersen we nu wel op af.
De ondertitel van uw boek luidt: AI ontwerpen die eerlijk, transparant en verantwoord is. In hoeverre is de generatieve AI die we nu al gebruiken in het dagelijks leven eerlijk, transparant en verantwoord?
Helemaal niet. De meeste generatieve AI-systemen zijn black boxes. Het is heel ondoorzichtig met welke data de modellen zijn getraind en het is vaak ook onduidelijk hoe ze tot bepaalde antwoorden komen. Ik pleit voor verantwoorde, ethische, uitlegbare AI. De makers moeten in ieder geval duidelijk kunnen maken dat ze afgewogen datasets gebruiken, die bijvoorbeeld niet maar uit één regio komen. Verder zouden de teams achter die modellen een reflectie moeten zijn van de diversiteit in de samenleving. En ten slotte zouden de makers heel goed de uitkomsten van het model moeten monitoren, vóórdat ze iets in de markt zetten. Maar op dit moment is het gewoon een oorlog tussen tussen de big tech-bedrijven om het beste en snelste model te lanceren.
Is het in die context realistisch om te verwachten dat makers zich ‘ethisch’ gaan gedragen?
Nee, op dit moment zie je eerder een omgekeerde beweging, omdat iedereen de eerste wil zijn. Ik denk dat het een kwestie van lange adem is. Je kunt het misschien vergelijken met de manier waarop we denken over bijvoorbeeld voedselveiligheid, of verkeersveiligheid. Het heeft behoorlijk lang geduurd voordat we op die gebieden bepaalde standaarden hebben ontwikkeld. Maar tegenwoordig krijgen we tot op zekere hoogte veilig voedsel binnen, en worden we bijvoorbeeld in de auto beschermd door een gordel, een kooiconstructie, noem maar op. En ja, dat vereist wat regulering vanuit de overheid.
Is overregulering niet juist het probleem in Europa? Je hoort het steeds vaker: the US innovates, Europe regulates…
Het klopt dat we in Europa geen grote partij hebben die serieus meedoet op het gebied van AI, maar dat is denk ik eerder een kwestie van geld. De EU wil nu 200 miljard euro investeren in de ontwikkeling van ‘Europese’ AI. Dat lijkt veel, maar als je ziet dat Elon Musk alleen al voor de overname van OpenAI bijna 100 miljard dollar biedt, mag je wel zeggen dat je op die manier de oorlog niet gaat winnen. Los daarvan zie ik zeker een rol voor de overheid om de private sector een boost te geven. Er zijn in het verleden heel veel voorbeelden te vinden van innovaties die zijn begonnen met publiek geld. In Nederland zijn we nu bijvoorbeeld GPT-NL aan het bouwen, een ‘publieke’ versie van een open taalmodel. Zulke initiatieven juich ik toe. AI moet in dienst staan van mensen, niet andersom. Dat principe betekent niet meteen dat je de innovatiekracht om zeep helpt, zoals sommigen misschien denken.
Moeten we in het kader van ethische AI ook bijvoorbeeld bepaalde ’schadelijke’ AI-tools verbieden?
Nee, want dan gebruiken mensen het wel via een VPN, of er komt weer een nieuwe versie. Het begint met het ontwikkelen van ons bewustzijn over wat AI doet, en hoe je het op een verantwoorde manier kunt gebruiken. Ik denk bijvoorbeeld dat AI-geletterdheid al vanaf de basisschool onderdeel moet zijn van het onderwijs. Er is nu heel veel discussie over mensen die verslaafd zijn aan hun smartphone en aan sociale media. Je kunt zeggen dat we die strijd in wezen al hebben verloren. Met AI staan we nog maar aan het begin. Het is nog niet te laat om als samenleving gelijke tred te houden met alle ontwikkelingen die er nog aan komen.
Hoe staat het op dit moment met onze AI-geletterdheid?
Die wordt zwaar overschat. Mensen die nu in de ‘AI-bubbel’ zitten denken misschien dat iedereen met AI bezig is, maar de realiteit is dat veel mensen niet heel digitaal vaardig zijn, laat staan dat ze op een verantwoorde manier met AI kunnen omgaan. We denken bijvoorbeeld dat jonge mensen heel slim zijn met technologie omdat ze van alles op hun smartphone doen, maar in de praktijk hebben veel jongeren al moeite met Word en Excel. Voor zover ze generatieve AI gebruiken zien ze het vaak als een soort onfeilbare antwoordmachine, en dat is het niet. Er zijn heel veel voorbeelden van AI-toepassingen die bepaalde vooroordelen of desinformatie alsmaar reproduceren en uitvergroten. Daar moeten we ons voortdurend bewust van zijn.
Van de andere kant geredeneerd: kan AI ook helpen om bepaalde waarden die we allemaal delen te bevorderen?
Begrijp me niet verkeerd: AI heeft heel veel goede kanten. Ik zie op dit moment met name in de gezondheidszorg heel veel mogelijkheden, bijvoorbeeld om mensen die om één of andere reden hun stemgebruik kwijt zijn toch weer te laten praten. Maar we kunnen AI ook aanwenden om de biodiversiteit van de planeet nog beter te monitoren, om maar iets te noemen. AI is net als iedere andere technologie: je kunt het zowel ten goede als ten kwade aanwenden.
Veel mensen zien hun verdienmodel verdwijnen door AI. Zijn bepaalde menselijke vaardigheden, zoals schrijven of programmeren, over een aantal jaar nog wel relevant?
Dat is een heel lastige vraag. Ik ben zelf docent bij Fontys hogescholen, en ik zie van dichtbij de impact van AI op het onderwijs. Hoe ga je daar mee om? Wat is toelaatbaar en wat niet? Welke vaardigheden hebben studenten straks nodig, en welke zijn minder belangrijk? Aan de ene kant kun je de ontwikkelingen niet tegenhouden. Ik dacht bijvoorbeeld altijd dat software-engineering ‘veilig’ was, maar dat werk kan nu al voor 80 of 90 procent door AI worden gedaan. Tegelijkertijd kun je een kind niet de vaardigheid ontnemen om bijvoorbeeld te leren schrijven, want door zelf te schrijven leer je ook andere teksten te beoordelen. En het allerbelangrijkste in de omgang met AI is dat we blijven focussen op ons kritisch denkvermogen.
Over Johan Faber
Johan Faber (1970) is journalist en schrijver van veelgeprezen nonfictie-en fictieboeken.