Europese verboden op ongewenste AI-toepassingen ingegaan
Vanaf 2 februari jl. gelden in de gehele Europese Unie diverse verboden op ongewenste toepassingen van kunstmatige intelligentie (AI). Daarbij gaat het bijvoorbeeld om AI-systemen die mensen indelen op basis van gedrag of persoonlijke kenmerken en zo tot nadelige behandeling kunnen leiden.
De Europese AI-verordening (AI Act), die sinds vorig jaar zomer gefaseerd inging, is gericht op het benutten van economische kansen van AI, maar ook op een veilige en betrouwbare werking van de technologie.
De AI-verordening biedt kansen voor zowel ontwikkelaars als ondernemers en tegelijk waarborgen voor Europese consumenten. Het gaat daarbij onder andere om basisafspraken over de werking van AI in producten en diensten, eisen aan (mogelijk) risicovolle toepassingen en de ondersteuning van ontwikkelaars zoals mkb'ers.
"We streven naar AI-modellen die werken volgens Europese normen en waarden", stelde minister Dirk Beljaarts (Economische Zaken) bij het ingaan van de maatregel op 2 februari. "Strenge regels waar nodig, maar géén onnodige regels voor bedrijven die laag-risico AI-systemen ontwikkelen en toepassen."
Belangrijkste verboden
Naast een verbod op rangschikking op basis van sociaal gedrag of persoonlijke kenmerken (social scoring) via de technologie, zijn ook AI-systemen die emotieherkenning in het werk en onderwijs toepassen niet meer toegestaan. Dat geldt ook voor AI-systemen die manipulatieve of misleidende technieken gebruiken, om in negatieve zin gedrag te veranderen.
Hetzelfde geldt voor realtime biometrische identificatie op afstand in de openbare ruimte voor rechtshandhaving, met beperkte uitzonderingen. Ook het inzetten van AI voor risicobeoordelingen voor het plegen van strafbare feiten, uitsluitend op basis van profilering, wordt niet meer gedoogd in de EU.
Stapsgewijze invoering
De AI-verordening is op 1 augustus 2024 in werking getreden, maar de verschillende onderdelen zijn gefaseerd van toepassing. Dat geeft ontwikkelaars en aanbieders van hoog-risico AI gelegenheid om hun toepassingen te laten voldoen aan de nieuwe eisen.
Nationale toezichthouders moeten erop toezien dat de verboden voor bepaalde AI-systemen en de eisen voor hoog-risico AI en transparantie worden nageleefd. De Europese Commissie gaat toezicht houden op grote AI-modellen, die voor veel verschillende doelen gebruikt kunnen worden.
Bron: Rijksoverheid
Gerelateerd
ChatGPT slaagt nog niet voor RA-opleiding
AI-tool ChatGPT wist met aanvullende training te slagen voor gestandaardiseerde oefenexamens van internationale accountantsopleidingen. Maar het behalen van het...
Auditor, het is zover: het grote Kodak-moment is hier. Koffers inpakken!
AI is klaar om de menselijke auditor naar de geschiedenisboeken te verbannen, meent Pieter de Kok.
TNO en RIVM: gebruik AI door werknemers kan voor stress zorgen
Het gebruik van kunstmatige intelligentie (AI) op de werkvloer heeft ook risico's, naast dat het veel kansen biedt en taken uit handen kan nemen. Werk wordt moeilijker...
AI wordt veel gebruikt door corporate finance-afdelingen
Wereldwijd maakt 71 procent van de corporate finance-afdelingen gebruik van kunstmatige intelligentie (AI). Momenteel wordt AI in meer of mindere mate door 41 procent...
KPMG en UvA doen samen onderzoek naar AI en accountancy
KPMG en het AI4FinTech-programma van de Universiteit van Amsterdam (UvA) gaan de komende vijf jaar samen onderzoek doen op het gebied van kunstmatige intelligentie...