Voorlopig politiek akkoord EU-eisen ontwikkeling kunstmatige intelligentie

De EU heeft in Brussel een voorlopig politiek akkoord bereikt over de AI Act. Dit zijn Europese eisen en kaders voor kunstmatige intelligentie.

Tags:
Afbeelding van Gordon Johnson via Pixabay

Bedoeling is te zorgen voor een juiste ontwikkeling van AI, gericht op economische kansen en het waarborgen van publieke waarden.

In de act staan onder andere basisafspraken over de werking van AI in producten en diensten, eisen aan mogelijk risicovolle toepassingen en de ondersteuning van ontwikkelaars zoals mkb’ers.

Zo biedt de AI Act richting voor ontwikkelaars om aan de eisen te voldoen. Binnen zogenoemde regulatory sandboxes kunnen zij hiermee innoveren om AI-toepassingen te ontwikkelen die onze technologische positie op de wereldmarkt verbeteren en zorgen voor AI van hoge kwaliteit. AI in bijvoorbeeld designprogramma’s, toepassingen in de maakindustrie en in videogames kan zo worden gestimuleerd.

Hoog risico AI-systemen

In het politiek akkoord zijn ook afspraken gemaakt over wat ’hoog risico AI-systemen zijn en welke eisen hieraan worden gesteld. Ook zijn bepaalde soorten AI straks verboden, zoals social scoring of manipulerende AI-technieken. Aanbieders van chatbots in webwinkels, deepfake technieken of generatieve AI-systemen als ChatGPT moeten ervoor zorgen dat het voor mensen duidelijk is dat ze met een AI praten of dat content door AI is gemaakt. AI-systemen met weinig risico’s voor mensen hoeven niet aan extra eisen te voldoen. Dit zijn bijvoorbeeld AI-systemen voor klantenservices, voor voorraadbeheer of voor laag-risico data.

Minister Micky Adriaansens (Economische Zaken en Klimaat): “Kunstmatige intelligentie gaat op dit moment wereldwijd razendsnel. Het is zaak dat we in Europa daarin ons beter positioneren. Dan kunnen we onze achterstand met deze technologie inlopen, profiteren wij economisch beter van de kansen die AI biedt en kunnen we sturen op de ontwikkeling van AI-systemen die werken volgens de wenselijke normen in onze maatschappij. Innovatie door onderzoekers en ondernemers moeten we dus sterk blijven stimuleren. Tegelijkertijd moeten we goedwerkende en veilige AI-systemen waarborgen om vertrouwen te creëren. De toekomstige AI Act belooft daarin de juiste balans te brengen.”

Duidelijkheid voor ontwikkelaars en gebruikers

De AI Act schept duidelijkheid voor AI-ontwikkelaars wanneer zij hun producten op de Europese markt willen aanbieden. Ook zijn gebruikers van AI aan regels gebonden om risico’s te voorkomen. De wettelijke verplichtingen, zoals een risicomanagementsysteem, gelden straks voor hoog-risico AI-systemen die bijvoorbeeld invloed hebben op de kansen van mensen op de arbeidsmarkt, het onderwijs, de financiële dienstverlening of medische apparaten. Ongeveer 15% van de AI-systemen valt hier onder. Voor de echt grote AI-modellen komen aparte eisen en Europees toezicht.

Toezicht

Consumenten, overheden en bedrijven die AI-producten kopen of hiermee in aanraking komen, moeten er zo van uit kunnen gaan dat de systemen veilig zijn. Toezicht moet ervoor zorgen dat onveilige systemen van de markt af gaan en dat hiervoor boetes aan ontwikkelaars kunnen worden opgelegd die niet voldoen aan de eisen. Tegelijkertijd zorgen de Europese regels voor een gelijk speelveld; ook niet-Europese aanbieders van AI-producten en -dienstverlening moeten hieraan voldoen als zij hun producten hier verkopen. Organisaties die AI inzetten, zoals mkb’ers, moeten er straks op kunnen vertrouwen dat deze goed werken en ondersteuning krijgen van de ontwikkelaar.

Het akkoord moet nog wel worden goedgekeurd door alle EU-lidstaten en het hele Europees Parlement. De wet treedt na twee jaar in werking.

Tags:

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *