Rathenau: ‘AI-bedrijven gebruiken burgers als proefkonijnen’

We kunnen ons niet meer voorstellen dat burgers vroeger bij het ontwikkelen van medicijnen zomaar als proefkonijn werden gebruikt. Gek genoeg lijken we hier bij AI niet moeilijk over te doen. Dat moet anders, vinden onderzoekers Wouter Nieuwenhuizen en Quirine van Eeden van het Rathenau Instituut.

Tags:
Afbeelding van Julius H. via Pixabay

Door: Wouter Nieuwenhuizen en Quirine van Eeden

De AI-chatbot in Snapchat moet verboden worden, daarvoor pleiten instanties en een aantal politieke partijen. Zoals Caroline Dettmeijer van Child Helpline International stelt, worden kinderen als proefkonijnen blootgesteld aan een ‘experimentele chatbot’. Niet alleen de veiligheid van kinderen, maar die van de gehele samenleving is in het geding. De komst van ChatGPT en andere AI-toepassingen die tekst en beeld kunnen genereren, maakt ons allemaal ongevraagd onderdeel van een grootschalig maatschappelijk experiment ten bate van een klein aantal bedrijven.

Een groot aantal ethici, ondernemers en medewerkers van techbedrijven heeft gewaarschuwd voor de komst vanAI als ChatGPT, en de doorontwikkeling ervan. In een brief aan de Europese Commissie wijzen oud-Google-ethicus Timnit Gebru en ruim 50 andere wetenschappers op de risico’s van AI-modellen. Oudere AI-modellen kunnen vaak slechts één taak uitvoeren binnen een bepaald gebied, terwijl deze nieuwe modellen een bredere reikwijdte hebben en in staat zijn om een groot scala aan opdrachten uit te voeren.

Aangezien deze nieuwe toepassingen nieuwe teksten en afbeeldingen van hoogwaardige kwaliteit kunnen genereren, kunnen hun producten volstrekt realistisch en overtuigend overkomen. Dat kan resulteren in grootschalige misleiding. Ook de vooringenomenheid in de trainingsdata, doordat bepaalde groepen of kenmerken in datasets oververtegenwoordigd zijn, kan leiden tot discriminatie op grote schaal.

Maar er staat nog meer op het spel. Hoogleraar computationele taalkunde Emily Bender waarschuwt voor dehumanisering doordat we AI te veel als mens en onszelf te veel als machine gaan zien. Wanneer we denken dat AI menselijke interacties kan vervangen of zelfs beter werk oplevert, schaadt dit niet alleen ons empathisch vermogen, maar dreigen we ook de meerwaarde van ons menszijn te verwaarlozen.

Eind 2022 lanceerde het bedrijf OpenAI ChatGPT. De urgentie was hoog. Topbestuurder Sam Schillace van Microsoft, dat een groot aandeel in OpenAI heeft, schreef in een interne e-mail dat ‘het een kolossale fout’ zou zijn om tijd te verliezen met zorgen over problemen die later nog te corrigeren zouden zijn. Een snelle lancering was nodig om zo snel mogelijk een stevige positie te vergaren op de AI-markt die zich in razend tempo ontwikkelt, zo bleek uit dezelfde e-mail.

Move fast and break things

Het uitbrengen van ChatGPT past binnen de ‘move fast and break things’-strategie, naar de slogan waarmee Mark Zuckerberg Facebook groot maakte. Ook nu lanceren bedrijven op vergelijkbare wijze zo snel mogelijk nieuwe diensten met burgers als proefkonijn. Het probleem is dat bedrijven als OpenAI, Microsoft en Meta dit ongecontroleerd kunnen doen. Waar er bij ingrijpend biomedisch onderzoek met mensen altijd wettelijke waarborgen zijn, zoals toezicht door ethische commissies en expliciete toestemming van deelnemers, mag de hele wereld proefkonijn spelen voor de systemen die een kleine groep ontwikkelaars in Silicon Valley heeft bedacht.

Natuurlijk kunnen we er als consumenten voor kiezen om ChatGPT en de recent uitgebrachte AI-systemen van Microsoft en Google (Bing Chat en Bard) niet te gebruiken. Maar wanneer anderen dat wel doen, krijg je er natuurlijk alsnog mee te maken. Bovendien verandert dat niets aan het overheersende narratief dat technologie ‘zich nou eenmaal blijft doorontwikkelen en we als samenleving alleen kunnen reageren’.

De vraag die we ons eigenlijk moeten stellen, is waartoe deze AI ontwikkeld wordt en wie er belang bij heeft. Zodra het gaat over onderwijsveranderingen of over ingrepen in fysieke leefomgeving, willen we weten ‘waarom’, ‘waartoe’, ‘voor wie’. Nieuwe AI-modellen zouden we ook aan die vragen moeten onderwerpen. Al in 2014 waarschuwde het Rathenau Instituut ervoor dat nieuwe digitale technologieën steeds dieper ingrijpen op de meest cruciale elementen van ons mens-zijn. Die waarschuwing lijkt alleen maar aan relevantie te winnen.

Technologieën als pacemakers en hersenimplantaten zijn vanwege hun indringende aard aan strenge regels onderworpen. Of neem geneesmiddelen. Daarvan vinden we het volstrekt logisch dat de bewijslast voor veiligheid en effectiviteit bij de producent ligt. Het Europees recht schrijft het voorzorgsbeginsel voor: voorkomen is beter dan genezen. Wanneer het vermoeden bestaat dat een nieuwe technologie of stof ernstige schade aan de gezondheid of het milieu kan toebrengen, moeten voorzorgsmaatregelen worden genomen.

Voor AI die ingrijpt op ons denken, handelen, voelen en andere fundamentele aspecten van ons leven lijkt dat niet te gelden. Recent heeft de Tweede Kamer het kabinet gevraagd om een integrale visie op nieuwe AI-producten. Wat we tenminste nodig hebben, zijn democratisch vastgestelde eisen en een afdwingbare maatschappelijke verantwoordelijkheid van AI-bedrijven. Alleen dan kunnen we ons als samenleving uit dit ongevraagde en ongecontroleerde experiment bevrijden.

Tags:

Geef een reactie

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Reacties (1)

  1. Nu AI een UI heeft waar je mee kan experimenteren is het plots gevaarlijk. Al jaren krijgen worden we beïnvloed met AI gestuurde reclame, routeplanners, zoekresultaten. Denk ook eens aan het nieuws dat we zien, de filmpjes die we bekijken, onze opinies en ons stemgedrag. Succes met de aanpak, maar doe dit niet omdat er een gadget bij is gekomen!