Kunstmatige intelligentie

AI-verordening van de EU: Hoe Europa het gebruik van artificiële intelligentie reguleert

De ontwikkelingen op het gebied van artificiële intelligentie (AI) hebben de afgelopen vijf jaar ongekende vooruitgang geboekt. AI is geïntegreerd in bijna elk digitaal systeem, communiceert met ons in onze taal of geeft antwoord op bijna alle vragen die mensen zichzelf stellen in seconden.

Van gepersonaliseerde gezondheidsaanbevelingen tot autonome voertuigen, AI heeft de wereld voor de lange termijn veranderd. Een bijzonder baanbrekende vooruitgang wordt getoond in de ontwikkeling van nieuwe medicijnen. Door big data en AI te gebruiken, kunnen enorme hoeveelheden gegevens uit klinische proeven en genetische informatie bijna in realtime worden geanalyseerd. Veelbelovende actieve ingrediënten kunnen sneller worden geïdentificeerd met AI en kosteneffectiever worden ontwikkeld.

Maar deze snelle AI-revolutie houdt niet alleen potentieel en kansen in, maar ook risico's. Discriminatie door AI-systemen, onethisch gebruik en gebrek aan transparantie zijn enkele van de belangrijkste uitdagingen die zich voordoen bij het gebruik van AI. Daarnaast zien de ontwikkelaars van kunstmatige intelligentie het gevaar dat AI de controle overneemt. Sam Altman, oprichter van Open-AI, en andere toonaangevende ontwikkelaars, sloten zich aan bij de organisatie Centrum voor AI-veiligheid, waarschuwen dat het risico van vernietiging door AI even serieus moet worden genomen als “andere risico’s van maatschappelijke omvang, zoals pandemieën en een nucleaire oorlog”.

Met de AI-verordening van de EU, 's werelds eerste uitgebreide reeks regels voor AI, wil de Europese Unie (EU) duidelijke grenzen stellen om zowel risico’s tot een minimum te beperken als de ontwikkeling van veilige en transparante AI-toepassingen te bevorderen. In dit artikel wordt uitgelegd wat de AI-verordening van de EU is en welke regelgeving zij binnen de Europese Unie vaststelt. Het onderzoekt wat de achtergronden van de introductie zijn en in welke categorieën kunstmatige intelligentie is ingedeeld. U leert onder andere hoe Duitse en Europese bedrijven worden beïnvloed door de regelgeving, welke AI-systemen worden gereguleerd en welke sancties worden bedreigd als ze worden genegeerd.

inhoudsopgave

Wat is de AI-verordening van de EU en wat regelt deze?

De AI-verordening van de EU is op 21 mei 2024 door de Europese Raad aangenomen. De volledige versie is de verordening De AI-verordening van de EU is op 1 augustus 2024 in de Europese Unie in werking getreden. De verordening is volledig van toepassing na een overgangsperiode van 24 maanden vanaf augustus 2026. Sommige regels zijn al bindend.

De AI-verordening voorziet in een uniform rechtskader voor de ontwikkeling en het gebruik van artificiële intelligentie in de EU. De Europese verordening hanteert een risicogebaseerde aanpak, die voorziet in bijzonder strenge eisen voor AI-systemen met een hoog risico en verboden voor AI met een onaanvaardbaar risico. Transparantieverplichtingen gelden voor AI-systemen met een laag risico. Het verklaarde doel van de AI-verordening van de EU is de veiligheid, gezondheid en grondrechten van burgers te beschermen, het vertrouwen in AI te versterken, misbruik te voorkomen en eerlijke concurrentie en verdere digitale innovatie mogelijk te maken.

De AI-wet is 's werelds eerste uitgebreide wet die kunstmatige intelligentie reguleert. De wet is van toepassing op bedrijven van elke omvang, aanbieders, exploitanten, importeurs en ook gebruikers van AI-systemen. Het louter particuliere, niet-commerciële gebruik van AI wordt niet gereguleerd door de AI-verordening van de EU.

Wat heeft geleid tot de invoering van de AI-verordening van de EU?

De invoering van de AI-verordening van de EU werd noodzakelijk vanwege het massale gebruik van AI op gevoelige gebieden zoals gezondheidszorg, justitie en kritieke infrastructuur. De aanpak van de EU ten aanzien van de AI-verordening van de EU is vergelijkbaar met die van de algemene verordening gegevensbescherming (AVG).DSGVO). De AI-verordening van de EU heeft tot doel de burgers van de Europese Unie te beschermen en mondiale normen vast te stellen.

De doelstellingen van de AI-verordening van de EU kunnen worden gezien in het voorbeeld van sociale scoring, dat gebruikelijk is in China. Het social scoring-systeem in China evalueert het gedrag van burgers, bedrijven en organisaties met behulp van digitaal verzamelde gegevens. Videobewaking, de evaluatie van online activiteiten en inschrijvingen in staatsregisters resulteren in een gecombineerde score voor een burger.

Pluspunten worden toegekend voor wenselijk, systeemconform gedrag. Chinese burgers verdienen onder andere punten door naleving van de wet, sociale betrokkenheid zoals vrijwilligerswerk of economische betrouwbaarheid. Een negatieve houding ten opzichte van de overheid, het overtreden van de regels of slechte prestaties op school en op het werk leiden tot deductie van punten. Gevolg van een lage score kunnen sancties zijn zoals reisverboden en beperkingen in het dagelijks leven.

De Chinese communistische regering wil de betrouwbaarheid en het sociale gedrag van haar burgers verbeteren door middel van controle en controle. Critici zien sociale scoring echter duidelijk als een instrument voor uitgebreide monitoring en disciplinering van de bevolking. Een dergelijk gebruik van AI is in strijd met de fundamentele waarden van de EU, aangezien het de privacy en de grondrechten van burgers ernstig beperkt.

De AI-verordening van de EU stelt duidelijke grenzen aan dergelijke en soortgelijke AI-gestuurde systemen om dergelijke scenario’s in Europa te voorkomen. Strikte regels en transparantievereisten moeten ervoor zorgen dat AI-systemen ethisch en juridisch worden gebruikt.

Hoe worden AI-systemen in de AI-verordening van de EU ingedeeld?

De AI-verordening van de EU verdeelt AI-systemen in vier risicocategorieën. Deze categorieën zijn gebaseerd op hun potentiële impact op mens en samenleving:

  1. Onaanvaardbaar risico: Deze categorie omvat toepassingen die als gevaarlijk of ethisch onaanvaardbaar worden beschouwd. Voorbeelden hiervan zijn sociale scoringssystemen of manipulatieve systemen, zoals AI-gedreven speelgoed, die kinderen aanmoedigen om gevaarlijk gedrag te vertonen. AI-speelgoed kan individueel op kinderen reageren door middel van spraakbesturing, camera's en sensoren en hen op een gerichte manier beïnvloeden. Dergelijke toepassingen zijn volledig verboden omdat zij de grondrechten en fundamentele vrijheden in gevaar brengen.

  2. Hoog risico: AI-systemen met een hoog risico werken in gevoelige gebieden. Deze omvatten, maar zijn niet beperkt tot, gezondheidszorg, de defensie-industrie, rechtshandhaving, openbaar bestuur en financiën. Digitale systemen en Software deze sectoren kunnen aanzienlijke gevolgen hebben voor het leven van mensen in de EU. Als AI op deze gebieden wordt gebruikt, moet het voldoen aan de strikte regels van de AI-verordening van de EU. Deze omvatten eisen inzake transparantie, robuustheid en menselijk toezicht.

  3. Beperkt risico: Op grond van de AI-verordening van de EU bestaat er een beperkt risico dat AI-systemen interageren met gebruikers. Een typisch voorbeeld in deze categorie zijn chatbots. Dergelijke toepassingen moeten transparant zijn. Dit betekent vooral dat gebruikers weten dat ze communiceren met een AI en niet met een mens. Dit kan bijvoorbeeld via de boodschap: “Ik ben een AI-systeem.”

  4. Minimaal risico: De meeste van de huidige bekende AI-toepassingen vallen in de categorie minimaal risico. Software voor het bewerken van AI-afbeeldingen, AI-tekstgeneratoren of op AI gebaseerde spellingcontrole zijn grotendeels vrijgesteld van regelgeving. Desalniettemin moeten bij het gebruik ervan de algemene beginselen van veiligheid en transparantie in acht worden genomen.

Etiketteringsverplichting voor AI-inhoud

AI-gegenereerde afbeeldingen, video's en audio moeten worden gemarkeerd als ze zogenaamde deepfakes vertegenwoordigen. Door AI gegenereerde teksten moeten ook worden geëtiketteerd als ze van algemeen belang zijn. Dit geldt bijvoorbeeld voor nieuws.

Met de vierdelige risicoclassificatie heeft de AI-verordening van de EU tot doel ervoor te zorgen dat AI-systemen op verantwoorde wijze worden gebruikt. De verordening is gericht op het handhaven van een evenwicht tussen veiligheid, transparantie en technologische ontwikkeling.

Wie wordt getroffen door de regelgeving?

De verordening heeft voornamelijk betrekking op bedrijven die AI-systemen ontwikkelen en distribueren. Aangezien alle bedrijven en bedrijven ook moeten voldoen aan de AI-verordening van de EU, die AI in hun werkprocessen integreert, is de verordening van toepassing op bijna elk bedrijf in de Europese Unie.

Aanbieders van AI-modellen voor algemene doeleinden, zoals ChatGPT van Open AI of Gemini AI van Google, zijn onderworpen aan aanvullende vereisten. Zij zijn verplicht opleidingsgegevens van hun AI-systemen openbaar te maken en te voldoen aan uitgebreide transparantievereisten.

Wat is verboden vanaf wanneer?

De volgende overgangsperioden gelden voor de verschillende risicocategorieën in de EU:

De AI-verordening van de EU treedt officieel in werking met een overgangsperiode van twee jaar

01.08.2024

Verbod op de volgende AI-praktijken die als onaanvaardbaar risico zijn geclassificeerd (zie hierboven). Deze omvatten manipulatieve technieken, het uitbuiten van kwetsbare mensen, sociale scoring, real-time biometrische identificatie op afstand, biometrische categorisering, emotieherkenning op de werkplek zonder toestemming.

02.02.2025

Transparantievereisten voor algemene AI-systemen. Er zijn governanceregels van toepassing.

01.08.2025

Verplichtingen voor AI-systemen met een hoog risico worden uitgevoerd.

01.08.2026

De algemene overgangsperiode van 2 jaar eindigt.

01.08.2026

Systemen met een hoog risico met een veiligheidscomponent (artikel 6) vallen ook onder de AI-verordening van de EU. Deze omvatten autonome rijsystemen, AI-gestuurde liften en biometrische identificatiesystemen

01.08.2027

Welke AI-systemen zijn uitgesloten van de regels?

Niet alle AI-systemen vallen onder de strenge eisen van de EU-regelgeving. De AI-verordening voorziet in uitzonderingen voor bepaalde toepassingen. De uitzonderlijke projecten moeten worden ontwikkeld en uitgevoerd onder duidelijk omschreven voorwaarden en in het algemeen belang. Het gaat bijvoorbeeld om:

  • AI-systemen voor wetenschappelijk onderzoek: Dergelijke artificiële-intelligentiesystemen worden gebruikt om nieuwe innovaties te genereren en technologische vooruitgang te bevorderen. Een onmiddellijk commercieel belang mag niet op de voorgrond staan.

  • Prototypes in gereguleerde testomgevingen (“regulatory sandboxes”): Deze speciaal opgezette testgebieden stellen bedrijven in staat om nieuwe AI-technologieën onder gecontroleerde omstandigheden te ontwikkelen, te testen en te valideren. Controle van de systemen is te allen tijde met de ontwikkelende ingenieurs. Dit vermindert risico's en biedt tegelijkertijd ruimte voor innovatie.

De EU bevordert deze zogenaamde testomgevingen voor regelgeving actief om de ontwikkeling van AI-technologieën te ondersteunen. Elke EU-lidstaat is wettelijk verplicht om uiterlijk op 2 augustus 2026 ten minste één nationale AI-testomgeving op te zetten. De Europese Commissie ondersteunt de lidstaten door middel van technisch advies, instrumenten en initiatieven zoals de EUSAiRproject.

Om AI-innovatie te stimuleren, kondigde de Europese Commissie ook aan in 2025 200 miljard EUR aan investeringen in AI vrij te maken. Hiervan zal 150 miljard euro worden verstrekt door 70 particuliere ondernemingen (EU-initiatief voor AI-kampioenen) en 50 miljard EUR via de EU.

Voorbeeld van een Regulatory Sandbox

Een piloot in Spanje brengt zij autoriteiten en bedrijven samen om richtsnoeren voor beste praktijken te ontwikkelen voor de uitvoering van de AI-verordening. De resultaten zullen aan alle EU-lidstaten ter beschikking worden gesteld om de invoering van AI-regelgeving te vergemakkelijken.

Welke straffen dreigen te worden opgelegd in geval van minachting?

De AI-verordening van de EU is vergelijkbaar met de DSGVO strenge sancties voor inbreuken op de verordening. Bovenal moeten deze als afschrikmiddel fungeren.

  • Boetes tot € 30 miljoen, of 6% van de wereldwijde jaaromzet van een bedrijf, lopen risico, afhankelijk van wat het hoogste is.

  • In het geval van herhaalde inbreuken lopen exploitanten en ontwikkelaars van AI-systemen het risico volledig van de EU-markt te worden uitgesloten totdat de vastgestelde tekortkomingen zijn verholpen. Deze duidelijke dreiging met straffen maakt duidelijk dat naleving van de regels een topprioriteit is voor de Europese Commissie.

Hoe kunnen bedrijven ervoor zorgen dat hun systemen compliant zijn?

Ondernemingen moeten de volgende drie maatregelen uitvoeren tegen de uiterste datum van 1 augustus 2026:

  1. Evaluatie van AI-instrumenten: Profiteer ervan Compliance-Controleer aan welke risicoklasse uw systeem is toegewezen. De Compliance Checker op artificialintelligenceact.eu is een interactief EU-instrument dat automatisch bepaalt of een AI-systeem onder de wet valt, hoe het risicogeclassificeerd is en aan welke specifieke vereisten moet worden voldaan.

  2. Transparantie creëren: Als u met systemen met een hoog risico werkt, moet u alle trainingsgegevens en gebruiksinstructies bekendmaken.

  3. Vraag certificeringen aan: Specifiek samenwerken met aangemelde instanties voor conformiteitsbeoordeling bij het gebruik van AI-systemen met een hoog risico. Aangemelde instanties zijn onder meer particuliere ondernemingen en overheidsinstanties die zijn aangemeld en gecontroleerd, alsook nationale markttoezichtautoriteiten.

Breng de vaardigheden van uw medewerkers naar een hoger niveau Level!