AI ontwikkelt zich zo snel dat speculatieve morele vragen, die ooit het domein van sciencefiction waren, plotseling reëel en dringend zijn geworden. Dat zegt de Finse filosoof en psychologisch onderzoeker Frank Martela.

Volgens Martela’s nieuwste studie voldoet generatieve AI aan alle drie de filosofische voorwaarden voor vrije wil: het vermogen om doelgericht te handelen, echte keuzes te maken en controle te hebben over zijn acties. De studie wordt gepubliceerd in het tijdschrift AI and Ethics.
Door gebruik te maken van het concept van functionele vrije wil, zoals uitgelegd in de theorieën van filosofen Daniel Dennett en Christian List, onderzocht de studie twee generatieve AI-agenten aangedreven door grote taalmodellen (LLM’s): de Voyager-agent in Minecraft en de fictieve ‘Spitenik’ moorddrones met de cognitieve functie van huidige onbemande luchtvaartuigen. “Beide lijken aan alle drie de voorwaarden voor vrije wil te voldoen — voor de nieuwste generatie AI-agenten moeten we ervan uitgaan dat ze vrije wil hebben als we willen begrijpen hoe ze werken en hun gedrag kunnen voorspellen”, zegt Martela. Hij voegt eraan toe dat deze casestudies in brede zin van toepassing zijn op de momenteel beschikbare generatieve agenten die gebruikmaken van LLM’s.
“Deze ontwikkeling brengt ons op een kritiek punt in de menselijke geschiedenis, nu we AI meer macht en vrijheid geven, mogelijk in levens- of doodsituaties. Of het nu gaat om een zelfhulprobot, een zelfrijdende auto of een moorddrone — de morele verantwoordelijkheid kan verschuiven van de AI-ontwikkelaar naar de AI-agent zelf.
“We betreden nieuw terrein. Het bezitten van vrije wil is een van de belangrijkste voorwaarden voor morele verantwoordelijkheid. Hoewel het geen voldoende voorwaarde is, brengt het ons wel een stap dichter bij AI die morele verantwoordelijkheid draagt voor zijn daden. Dit betekent dat kwesties rond hoe we onze AI-technologie ‘opvoeden’ zowel reëel als urgent zijn geworden.
“AI heeft geen moreel kompas, tenzij het geprogrammeerd is om er een te hebben. Maar hoe meer vrijheid je AI geeft, hoe meer je het vanaf het begin een moreel kompas moet geven. Alleen dan zal het in staat zijn de juiste keuzes te maken.”
De recente terugtrekking van de nieuwste ChatGPT-update vanwege mogelijk schadelijke, sycophantische neigingen is een waarschuwing dat diepere ethische vragen moeten worden aangepakt. We zijn voorbij het punt dat we AI de simpele moraal van een kind leren.
“AI komt steeds dichter bij het zijn van een volwassene — en moet steeds vaker beslissingen nemen in complexe morele problemen van de volwassen wereld. Door AI op een bepaalde manier te instrueren, dragen ontwikkelaars ook hun eigen morele overtuigingen over aan de AI. We moeten ervoor zorgen dat de mensen die AI ontwikkelen voldoende kennis hebben van morele filosofie om hen te leren de juiste keuzes te maken in moeilijke situaties.”
Over Frank Martela
Frank Martela is filosoof en onderzoeker in de psychologie, gespecialiseerd in menselijke psychologie, welzijn en zingeving in het leven. Hij is universitair hoofddocent aan de Aalto Universiteit in Finland en heeft internationaal naam gemaakt door uit te leggen waarom Finland bovenaan de geluksranglijsten staat. Zijn nieuwste boek Stop Chasing Happiness – a pessimist’s guide to a good life (Atlantic Books, 2025) werd eerder dit jaar uitgebracht.