Negligible risk
ConceptenVerwaarloosbaar risico. Risico waarvan de kans, de consequenties, of beiden zo klein is/zijn, dat het verwaarloosd kan worden. De kosten van mitigatie wegen dan niet op tegen de baten.
Negligible risk is de laagste risicocategorie binnen de Europese AI Act en omvat AI-systemen die geen noemenswaardige bedreiging vormen voor de gezondheid, veiligheid of grondrechten van burgers. Het overgrote deel van de AI-toepassingen die vandaag op de Europese markt beschikbaar zijn, valt in deze categorie. Denk aan spamfilters, AI-gestuurde videogames, autocomplete-functies, eenvoudige aanbevelingssystemen en voorspellende tekstinvoer op je telefoon. De EU hanteert een risicogebaseerde aanpak waarbij strengere regels gelden naarmate het risico van een AI-systeem toeneemt, en negligible risk vormt daar het laagste niveau van.
Waarom is negligible risk belangrijk?
Het begrip negligible risk is cruciaal voor het begrijpen van de AI Act en de manier waarop de EU kunstmatige intelligentie reguleert. De AI Act classificeert AI-systemen in vier risiconiveaus: onaanvaardbaar risico (verboden), hoog risico, beperkt risico en minimaal of verwaarloosbaar risico. Door deze gelaagde aanpak voorkomt de EU dat innovatie onnodig wordt belemmerd door overregulering van onschuldige toepassingen.
Voor jouw organisatie betekent dit concreet dat AI-systemen in de negligible risk categorie vrij ontwikkeld en ingezet mogen worden. Er gelden geen aanvullende verplichtingen vanuit de AI Act, hoewel bestaande wetgeving zoals de AVG voor gegevensbescherming en consumentenwetgeving uiteraard van toepassing blijft. Dit biedt bedrijven de vrijheid om te innoveren met laagrisico AI-toepassingen zonder extra bureaucratische lasten, wat de concurrentiepositie van Europese bedrijven versterkt ten opzichte van regio s met minder regelgeving.
Het onderscheid is bijzonder relevant voor het MKB. Veel kleinere organisaties gebruiken AI-tools voor dagelijkse taken zoals e-mailfiltering, klantenservice chatbots voor eenvoudige vragen of automatische tekstcorrectie. Deze toepassingen vallen doorgaans onder negligible risk, wat betekent dat je er zonder aanvullende compliance-eisen gebruik van kunt maken.
Hoe pas je negligible risk toe?
Het classificeren van jouw AI-systemen begint met een grondige en systematische risicoanalyse volgens de richtlijnen van de AI Act. Je beoordeelt per systeem of het potentiele impact heeft op de gezondheid, veiligheid of fundamentele rechten van personen. Bij negligible risk systemen is die impact afwezig of verwaarloosbaar klein voor individuen en de samenleving. De AI Act geeft duidelijke richtlijnen voor deze classificatie.
Concreet doorloop je de volgende stappen. Eerst inventariseer je alle AI-systemen binnen jouw organisatie. Vervolgens toets je elk systeem aan de criteria voor hogere risicocategorieen. Wordt het systeem niet gebruikt voor biometrische identificatie, kredietbeoordeling, medische diagnostiek of andere hoog-risico toepassingen? Dan valt het waarschijnlijk onder negligible risk. Je documenteert deze classificatie voor interne governance, ook al is dit niet wettelijk verplicht voor deze categorie.
Hoewel de AI Act geen specifieke verplichtingen oplegt voor negligible risk systemen, is het verstandig om vrijwillig bepaalde basisprincipes te volgen. Transparantie richting gebruikers over het feit dat ze met AI interacteren, is een goed uitgangspunt. Ook periodieke evaluatie of jouw systeem nog steeds in de laagste risicocategorie valt, is aan te raden. AI-systemen kunnen door updates of gewijzigd gebruik van categorie verschuiven.
Negligible risk in de praktijk
Een Nederlands marketingbureau implementeert een AI-tool die automatisch spelfouten corrigeert en schrijfsuggesties geeft in klantcommunicatie. Dit systeem verwerkt tekst puur op taalniveau, neemt geen beslissingen over personen en heeft geen impact op grondrechten. Het valt duidelijk onder negligible risk en mag zonder aanvullende AI Act-verplichtingen worden ingezet.
Een ander voorbeeld is een webshop die AI gebruikt voor productaanbevelingen op basis van browsegedrag. Zolang dit systeem geen profiling uitvoert die significante gevolgen heeft voor individuen, classificeert het als minimaal risico. Let wel op dat de AVG-verplichtingen rondom gegevensverwerking apart van kracht blijven.
De grens wordt interessanter bij toepassingen die dicht tegen beperkt risico aanzitten. Een chatbot die alleen openbare productinformatie geeft, is negligible risk. Maar zodra diezelfde chatbot gepersonaliseerd medisch advies gaat geven of financiele aanbevelingen doet, verschuift de classificatie naar een hoger risiconiveau. Het is daarom essentieel om de functionaliteit van jouw AI-systemen scherp af te bakenen en te monitoren.
Negligible risk en de toekomst van AI-regulering
De classificatie van AI-systemen als negligible risk is niet statisch. Naarmate AI-technologie evolueert en nieuwe toepassingen ontstaan, kan de grens tussen negligible en limited risk verschuiven. De Europese Commissie heeft de bevoegdheid om de risicocategorieen aan te passen op basis van nieuwe inzichten en technologische ontwikkelingen. Dit betekent dat een systeem dat vandaag als negligible risk wordt geclassificeerd, in de toekomst onder strengere eisen kan vallen.
Generatieve AI, zoals grote taalmodellen en beeldgeneratoren, illustreert deze dynamiek. Toen de AI Act werd opgesteld, bestonden deze systemen nauwelijks. Nu zijn ze alomtegenwoordig en roepen ze vragen op over desinformatie, intellectueel eigendom en privacy die niet volledig door de oorspronkelijke risicocategorieen worden gedekt. De EU heeft daarom aanvullende transparantievereisten geintroduceerd voor general-purpose AI, ongeacht de risicocategorie van de specifieke toepassing.
Voor jouw organisatie is het verstandig om een AI-governance framework op te zetten, ook voor negligible risk systemen. Dit framework helpt bij het documenteren van welke AI-systemen je gebruikt, waarvoor ze worden ingezet en hoe ze zijn geclassificeerd. Wanneer regelgeving verandert of systemen worden uitgebreid, heb je een solide basis om snel te beoordelen of herclassificatie nodig is. Een proactieve aanpak bespaart tijd en kosten vergeleken met reactief moeten voldoen aan nieuwe eisen.
De wisselwerking tussen de AI Act en andere regelgeving verdient bijzondere aandacht. De AVG stelt eisen aan geautomatiseerde besluitvorming, de Digital Services Act reguleert aanbevelingssystemen op platforms en sectorspecifieke regelgeving kan aanvullende eisen stellen. Een AI-systeem dat onder de AI Act als negligible risk kwalificeert, kan onder andere wetgeving alsnog aan specifieke verplichtingen moeten voldoen. Integraal toetsen aan alle relevante regelgeving is daarom noodzakelijk.
Veelgestelde vragen over negligible risk
Wat is het verschil tussen negligible risk en limited risk in de AI Act?
Negligible risk systemen hebben geen aanvullende verplichtingen. Limited risk systemen moeten voldoen aan transparantievereisten, zoals het melden dat content door AI is gegenereerd. Het verschil zit in de potentiele impact op gebruikers en de mate van menselijke interactie.
Moet je negligible risk AI-systemen registreren?
Nee, de AI Act vereist geen registratie van negligible risk systemen. Registratie is alleen verplicht voor hoog-risico AI-systemen in de EU-database. Interne documentatie is wel aan te raden voor governance-doeleinden.
Kan een negligible risk systeem van categorie veranderen?
Ja. Als je een AI-systeem uitbreidt met functionaliteit die impact heeft op gezondheid, veiligheid of grondrechten, kan het opschuiven naar een hogere risicocategorie. Periodieke herclassificatie is daarom verstandig bij significante updates.
Geldt de AVG nog steeds voor negligible risk AI?
Absoluut. De AI Act vervangt de AVG niet. Als jouw AI-systeem persoonsgegevens verwerkt, blijven alle AVG-verplichtingen volledig van kracht, ongeacht de AI Act-classificatie. Denk aan een verwerkingsregister en privacybeleid.
Welke sectoren gebruiken vooral negligible risk AI?
Vrijwel alle sectoren. Spamfilters, zoekmachines, spellingcontrole en eenvoudige automatisering zijn universeel. De meeste AI-toepassingen in kantooromgevingen, gaming en contentcreatie vallen onder deze categorie.
Zorg dat jouw AI-systemen voldoen aan de juiste regelgeving. Vergelijk Governance Risk Compliance aanbieders op IBgidsNL.