EC maakt nieuwe richtlijnen kunstmatige intelligentie bekend

De Europese Commissie heeft vandaag in Brussel zeven richtlijnen gepubliceerd die betrouwbare kunstmatige intelligentie (AI) moeten opleveren. De commissie vraagt nu om toetsing van deze ethische richtlijnen, volgend jaar volgt een evaluatie.

15 Belgische bedrijven hielpen de commissie bij het vormgeven van de richtlijnen. In een proefperiode zullen bedrijven, onderzoeksinstellingen en overheidsdiensten de richtlijnen testen en feedback geven.

De Europese Commissie geeft aan dat deze plannen voortbouwen op de AI-strategie van april 2018, die tot doel heeft publieke en private investeringen in het komende decennium met minstens twintig miljard euro te verhogen en het vertrouwen in kunstmatige intelligentie te verhogen.

De 7 richtlijnen zijn ingedeeld in onderwerpen:

  • Menselijk handelen en toezicht
    AI-systemen moeten de menselijke autonomie niet verminderen, beperken of misleiden en menselijk handelen ondersteunen.
  • Robuustheid en veiligheid
    Betrouwbare AI vereist dat algoritmen veilig, betrouwbaar en robuust genoeg zijn om fouten of inconsistenties in alle levensfasen van AI-systemen op te vangen.
  • Privacy en gegevensbeheer
    Burgers moeten volledige controle hebben over hun eigen gegevens, maar gegevens over hen mogen niet worden gebruikt om hen te schaden of te discrimineren.
  • Transparantie
    De traceerbaarheid van AI-systemen moet worden gewaarborgd.
  • Diversiteit, non-discriminaliteit en eerlijkheid
    AI-systemen moeten rekening houden met het hele scala aan menselijke mogelijkheden, vaardigheden en vereisten en zorgen voor toegankelijkheid.
  • Maatschappelijk en ecologisch welzijn
    AI-systemen moeten worden gebruikt om positieve sociale verandering te bevorderen en duurzaamheid en ecologische verantwoordelijkheid te vergroten.
  • Verantwoording
    Er moeten mechanismen worden ingesteld om de verantwoordelijkheid en verantwoording voor KI-systemen en hun resultaten te waarborgen.