Het risicomodel van de EU AI Act: de nieuwe standaard voor AI-regulering
Op 1 augustus 2024 trad de Europese AI Act in werking - de eerste uitgebreide wetgeving ter wereld gericht op de regulering van kunstmatige intelligentie.
Op 1 augustus 2024 trad de Europese AI Act (Verordening (EU) 2024/1689) in werking - de eerste uitgebreide wetgeving ter wereld gericht op de regulering van kunstmatige intelligentie. Deze mijlpaal in de digitale wetgeving zal gefaseerd worden geïmplementeerd, met volledige toepassing vanaf 2 augustus 2026. Bepaalde aspecten, zoals het verbod op AI-systemen met onaanvaardbare risico's, zijn echter al eerder (vanaf 2 februari 2025) van kracht geworden.
Centraal in de EU AI Act staat een innovatief, op risico gebaseerd classificatiesysteem dat AI-toepassingen indeelt in verschillende risicocategorieën. Deze aanpak erkent dat niet alle AI-systemen dezelfde mate van toezicht vereisen en dat de regeldruk proportioneel moet zijn aan de potentiële schade die een systeem kan veroorzaken.
In deze blog duiken we diep in het risicomodel van de EU AI Act, ontleden we de verschillende categorieën, en bespreken we wat dit betekent voor organisaties die AI ontwikkelen of implementeren.
De vier risiconiveaus van de EU AI Act
De EU AI Act classificeert AI-systemen in vier verschillende risiconiveaus, elk met eigen vereisten en verplichtingen:
Onaanvaardbaar risico
Verboden AI-toepassingen
Hoog risico
Strenge vereisten
Beperkt risico
Transparantieverplichtingen
Minimaal risico
Geen specifieke verplichtingen
Onaanvaardbaar risico (verboden toepassingen)
Subliminale manipulatie
Systemen die subliminale, manipulatieve of misleidende technieken gebruiken om gedrag te verstoren en geïnformeerde besluitvorming te belemmeren, wat tot significante schade leidt
Kwetsbaarheden uitbuiten
Systemen die kwetsbaarheden gerelateerd aan leeftijd, handicap of sociaaleconomische omstandigheden uitbuiten om gedrag te verstoren, wat tot significante schade leidt
Social scoring
Systemen die mensen classificeren op basis van gedrag, sociaaleconomische status of persoonlijke kenmerken
Biometrische categorisatiesystemen
Die gevoelige kenmerken afleiden (ras, politieke opvattingen, vakbondslidmaatschap, religieuze of filosofische overtuigingen, seksleven of seksuele geaardheid)
Real-time biometrische identificatie
In openbare ruimtes, met enkele beperkte uitzonderingen voor wetshandhaving
Deze verboden zijn al sinds 2 februari 2025 van kracht, eerder dan andere delen van de wetgeving, wat de hoge prioriteit aangeeft die aan het beperken van deze toepassingen wordt gegeven.
Hoog risico AI-systemen
Veiligheidscomponenten
Het systeem wordt gebruikt als veiligheidscomponent of product dat onder EU-wetgeving valt (opgenomen in Bijlage I) en moet een conformiteitsbeoordeling ondergaan
Specifieke toepassingsgebieden
Het systeem valt onder de toepassingsgebieden genoemd in Bijlage III, waaronder kritieke infrastructuur, onderwijs, werkgelegenheid, essentiële diensten, wetshandhaving, migratie en rechtsbedeling
Uitgebreide verplichtingen
Invoering van risicobeheerssysteem, gegevensbeheersvereisten, technische documentatie, transparantie, menselijk toezicht en hoge niveaus van robuustheid
Toepassingsgebieden voor hoog-risico AI
Kritieke infrastructuur
AI-systemen voor beheer van essentiële diensten
Onderwijs en beroepsopleiding
Systemen voor toelating en beoordeling van studenten
Werkgelegenheid
Werving, personeelsbeheer en toegang tot zelfstandige beroepen
Essentiële diensten
Toegang tot basisvoorzieningen
Wetshandhaving
Risicobeoordeling en preventie van strafbare feiten
Migratie en grensbeheer
Systemen voor asiel en immigratie
Rechtsbedeling
Juridische processen en democratische procedures
Beperkt risico AI-systemen
Voorbeelden van beperkt-risico systemen
Chatbots en virtuele assistenten
Deepfakes en andere AI-gegenereerde of gemanipuleerde content
Emotieherkenningssystemen
Biometrische categorisatiesystemen (in beperkte context)
Belangrijkste verplichtingen
Gebruikers moeten worden geïnformeerd dat ze met een AI-systeem interacteren (tenzij dit evident is)
AI-gegenereerde of gewijzigde content moet worden gemarkeerd als zodanig
Transparantie over de capaciteiten en beperkingen van het systeem
Deze vereisten zijn ontworpen om ervoor te zorgen dat mensen geïnformeerde keuzes kunnen maken bij de interactie met deze systemen, zonder overmatige regeldruk voor innovatie.
Minimaal of geen risico AI-systemen
De meerderheid van de AI-systemen op de markt valt in deze categorie en wordt beschouwd als systemen die minimaal of geen risico vormen voor veiligheid of fundamentele rechten.
Voor deze systemen gelden geen specifieke verplichtingen onder de EU AI Act, behalve algemene transparantievereisten en de verplichting om te zorgen voor een toereikend niveau van AI-geletterdheid bij personeel dat met de systemen werkt.
Voorbeelden van minimaal-risico systemen:
AI-gestuurde spamfilters
AI in videogames
Eenvoudige zoekmachines
Basale aanbevelingssystemen
General purpose AI (GPAI) modellen
Definitie GPAI
De AI Act bevat specifieke bepalingen voor General Purpose AI (GPAI) modellen, zoals grote taalmodellen die in verschillende toepassingen kunnen worden geïntegreerd.
GPAI-modellen met systeemrisico
Geavanceerde modellen (zoals GPT-4) die mogelijk systemische risico's met zich meebrengen
Andere GPAI-modellen
Modellen zonder systemische risico's
Verplichtingen voor alle GPAI-providers
Technische documentatie opstellen, gebruiksaanwijzingen verstrekken, voldoen aan de Auteursrechtrichtlijn, een samenvatting publiceren van de content die voor training is gebruikt
Aanvullende verplichtingen voor GPAI met systeemrisico
Risicobeoordeling: bepaal in welke risicocategorie uw AI-systeem valt
Compliance planning: implementeer maatregelen die passen bij het vastgestelde risiconiveau
Documentatie: ontwikkel robuuste documentatieprocessen, vooral voor hoog-risico systemen
Transparantie: zorg voor duidelijke informatievoorziening over de capaciteiten en beperkingen van het systeem
Monitoring: implementeer doorlopende monitoring voor het detecteren en mitigeren van risico's
Voor AI-gebruikers (deployers)
Due diligence: controleer of de AI-systemen die u implementeert voldoen aan de EU AI Act
Risicobeheer: implementeer interne processen voor het beheren van risico's die samenhangen met AI-gebruik
Menselijk toezicht: zorg voor adequate menselijke supervisie, vooral bij hoog-risico toepassingen
AI-geletterdheid: waarborg voldoende AI-geletterdheid bij personeel dat met AI-systemen werkt
Transparantie naar gebruikers: informeer eindgebruikers over de interactie met AI-systemen waar vereist
Handhaving en sancties
€35M
Verboden AI-praktijken
of 7% van de wereldwijde jaaromzet
€15M
Niet-naleving
of 3% van de wereldwijde jaaromzet
€7.5M
Onjuiste informatie
of 1% van de wereldwijde jaaromzet
De handhaving zal worden uitgevoerd door het European AI Office en nationale markttoezichthouders in de lidstaten, ondersteund door de AI Board, het Scientific Panel en het Advisory Forum.
De impact in cijfers
Hoewel de precieze impact van de EU AI Act nog niet volledig kan worden ingeschat, geven enkele studies een indicatie:
De Europese Commissie schatte dat slechts 5-15% van alle AI-toepassingen onder de strengere regels voor hoog-risico systemen zou vallen
Een studie van appliedAI onder 106 zakelijke AI-systemen vond dat 18% hoog risico was, 42% beperkt risico, en 40% onduidelijke classificatie had
In een gerelateerd onderzoek onder 113 AI-startups in de EU geloofde 33% dat hun AI-systemen als hoog risico zouden worden geclassificeerd
Deze cijfers suggereren dat de impact van de wetgeving aanzienlijk kan zijn, maar dat de meerderheid van de AI-toepassingen niet aan de zwaarste vereisten zal zijn onderworpen.
Conclusie: Een gebalanceerde aanpak voor AI-regulering
Burgers beschermen
Tegen de meest schadelijke toepassingen van AI
Rechtszekerheid bieden
Voor bedrijven die AI ontwikkelen en implementeren
Vertrouwen bevorderen
In AI-technologieën door transparantie en verantwoordingsplicht
Innovatie mogelijk maken
Door lichtere regeldruk voor laag-risico toepassingen
De op risico gebaseerde aanpak van de EU AI Act vertegenwoordigt een poging om een evenwicht te vinden tussen het beschermen van fundamentele rechten en het bevorderen van innovatie. Als eerste uitgebreide AI-wetgeving ter wereld zal de EU AI Act waarschijnlijk een mondiale benchmark worden en invloed hebben op AI-regulering in andere jurisdicties. Organisaties die actief zijn in de AI-ruimte doen er goed aan om zich nu al voor te bereiden op de geleidelijke implementatie van deze wetgeving.
Bereid uw organisatie voor met Alpha Indigo
AI-risicoassessment
Bepaal in welke risicocategorie uw AI-systemen vallen
Gap-analyse
Identificeer waar uw huidige praktijken niet voldoen aan de nieuwe vereisten
Compliance roadmap
Ontwikkel een stapsgewijs plan om volledig compliant te worden
Documentatie en governancestructuren
Implementeer de vereiste processen en documentatie
Training en bewustwording
Zorg voor AI-geletterdheid binnen uw hele organisatie
Is uw organisatie klaar voor de EU AI Act? De tijd om actie te ondernemen is nu. Bij Alpha Indigo hebben we een gespecialiseerd team van AI-compliance experts die u kunnen helpen bij elke stap van uw reis naar naleving van de EU AI Act.
Plan vandaag nog een vrijblijvend gesprek met een van onze EU AI Act specialisten en voorkom boetes die kunnen oplopen tot 7% van uw wereldwijde jaaromzet.