Forordningen om kunstig intelligens er den første retlige ramme for kunstig intelligens nogensinde, som imødegår risiciene ved kunstig intelligens og sætter Europa i stand til at spille en førende rolle på globalt plan.
Forordningen om kunstig intelligens (forordning (EU) 2024/1689 om harmoniserede regler for kunstig intelligens) er den første omfattende retlige ramme for kunstig intelligens nogensinde på verdensplan. Formålet med reglerne er at fremme pålidelig kunstig intelligens i Europa.
Forordningen om kunstig intelligens fastsætter et klart sæt risikobaserede regler for udviklere og udbredere af kunstig intelligens vedrørende specifikke anvendelser af kunstig intelligens. Forordningen om kunstig intelligens er en del af en bredere pakke af politiske foranstaltninger til støtte for udviklingen af pålidelig kunstig intelligens, som også omfatter AI-innovationspakken, lanceringen af AI-fabrikker og den koordinerede plan for kunstig intelligens. Tilsammen garanterer disse foranstaltninger sikkerhed, grundlæggende rettigheder og menneskecentreret kunstig intelligens og styrker udbredelsen, investeringerne og innovationen inden for kunstig intelligens i hele EU.
For at lette overgangen til den nye lovgivningsmæssige ramme har Kommissionen lanceret AI-pagten, et frivilligt initiativ, der har til formål at støtte den fremtidige gennemførelse, samarbejde med interessenter og opfordre AI-udbydere og -idriftsættere fra og uden for Europa til at overholde de centrale forpligtelser i forordningen om kunstig intelligens på forhånd.
Hvorfor har vi brug for regler om kunstig intelligens?
Forordningen om kunstig intelligens sikrer, at europæerne kan stole på, hvad kunstig intelligens har at tilbyde. Selv om de fleste AI-systemer udgør en begrænset risiko og kan bidrage til at løse mange samfundsmæssige udfordringer, skaber visse AI-systemer risici, som vi skal imødegå for at undgå uønskede resultater.
Det er f.eks. ofte ikke muligt at finde ud af, hvorfor et AI-system har truffet en beslutning eller forudsigelse og truffet en bestemt foranstaltning. Det kan derfor blive vanskeligt at vurdere, om en person er blevet uretfærdigt stillet, f.eks. i en ansættelsesafgørelse eller i en ansøgning om en offentlig ydelsesordning.
Selv om den eksisterende lovgivning yder en vis beskyttelse, er den ikke tilstrækkelig til at tackle de specifikke udfordringer, som AI-systemer kan medføre.
En risikobaseret tilgang
AI-forordningen definerer fire risikoniveauer for AI-systemer:
Uacceptabel risiko
Alle AI-systemer, der betragtes som en klar trussel mod menneskers sikkerhed, levebrød og rettigheder, er forbudt. AI-forordningen forbyder otte praksisser, nemlig:
- skadelig AI-baseret manipulation og bedrag
- skadelig AI-baseret udnyttelse af sårbarheder
- sociale scoringer
- Risikovurdering eller -forudsigelse vedrørende individuelle strafbare handlinger
- ikkemålrettet skrabning af internet- eller CCTV-materiale for at oprette eller udvide databaser til ansigtsgenkendelse
- følelsesgenkendelse på arbejdspladser og uddannelsesinstitutioner
- biometrisk kategorisering med henblik på at udlede visse beskyttede egenskaber
- biometrisk fjernidentifikation i realtid med henblik på retshåndhævelse på offentlige steder
Høj risiko
AI-anvendelsestilfælde, der kan udgøre alvorlige risici for sundhed, sikkerhed eller grundlæggende rettigheder, klassificeres som højrisikotilfælde. Disse højrisikobrugstilfælde omfatter:
- AI-sikkerhedskomponenter i kritisk infrastruktur (f.eks. transport), hvis svigt kan bringe borgernes liv og sundhed i fare
- AI-løsninger, der anvendes på uddannelsesinstitutioner, og som kan være afgørende for adgangen til uddannelse og forløbet af en persons arbejdsliv (f.eks. bedømmelse af eksamener)
- AI-baserede sikkerhedskomponenter i produkter (f.eks. AI-anvendelse i robotassisteret kirurgi)
- AI-værktøjer til beskæftigelse, forvaltning af arbejdstagere og adgang til selvstændig erhvervsvirksomhed (f.eks. CV-sorteringssoftware til rekruttering)
- Visse tilfælde af anvendelse af kunstig intelligens, der anvendes til at give adgang til væsentlige private og offentlige tjenester (f.eks. kreditvurdering, der nægter borgerne mulighed for at opnå et lån)
- AI-systemer, der anvendes til biometrisk fjernidentifikation, følelsesgenkendelse og biometrisk kategorisering (f.eks. AI-system til at identificere en butikstyv med tilbagevirkende kraft)
- AI-anvendelsestilfælde inden for retshåndhævelse, der kan gribe ind i menneskers grundlæggende rettigheder (f.eks. evaluering af bevisernes pålidelighed)
- AI-anvendelsestilfælde inden for migrations-, asyl- og grænsekontrolforvaltning (f.eks. automatiseret behandling af visumansøgninger)
- AI-løsninger, der anvendes i retsplejen og de demokratiske processer (f.eks. AI-løsninger til udarbejdelse af retsafgørelser)
Højrisiko-AI-systemer er underlagt strenge forpligtelser, inden de kan bringes i omsætning:
- passende risikovurderings- og risikobegrænsningssystemer
- høj kvalitet af de datasæt, der anvendes i systemet, for at minimere risikoen for diskriminerende resultater
- logning af aktiviteter for at sikre sporbarhed af resultater
- detaljeret dokumentation med alle nødvendige oplysninger om systemet og dets formål, så myndighederne kan vurdere dets overholdelse
- klare og tilstrækkelige oplysninger til udbrederen
- passende foranstaltninger til menneskeligt tilsyn
- høj grad af robusthed, cybersikkerhed og nøjagtighed
Begrænset risiko
Dette henviser til de risici, der er forbundet med behovet for gennemsigtighed i forbindelse med anvendelsen af kunstig intelligens. AI-forordningen indfører specifikke oplysningsforpligtelser for at sikre, at mennesker informeres, når det er nødvendigt for at bevare tilliden. Når mennesker f.eks. anvender AI-systemer såsom chatbots, bør de gøres opmærksomme på, at de interagerer med en maskine, så de kan træffe en informeret beslutning.
Desuden skal udbydere af generativ kunstig intelligens sikre, at AI-genereret indhold kan identificeres. Derudover bør visse former for AI-genereret indhold mærkes klart og synligt, nemlig deepfakes og tekst, der offentliggøres med det formål at informere offentligheden om spørgsmål af offentlig interesse.
Minimal eller ingen risiko
Forordningen om kunstig intelligens indfører ikke regler for kunstig intelligens, der anses for at være minimale eller ingen risici. Langt størstedelen af de AI-systemer, der i øjeblikket anvendes i EU, falder ind under denne kategori. Dette omfatter applikationer som AI-aktiverede videospil eller spamfiltre.
Hvordan fungerer det i praksis for udbydere af højrisiko-AI-systemer?
Hvordan fungerer det i praksis for udbydere af højrisiko-AI-systemer?
Når et AI-system er på markedet, er myndighederne ansvarlige for markedsovervågning, udbrederne sikrer menneskeligt tilsyn og overvågning, og udbyderne har indført et system til overvågning, efter at udstyret er bragt i omsætning. Udbydere og udbredere vil også indberette alvorlige hændelser og funktionsfejl.
En løsning til pålidelig brug af store AI-modeller
AI-modeller til almen brug kan udføre en lang række opgaver og er ved at blive grundlaget for mange AI-systemer i EU. Nogle af disse modeller kan indebære systemiske risici, hvis de er meget anvendelige eller anvendes i vid udstrækning. For at sikre sikker og pålidelig kunstig intelligens indfører forordningen om kunstig intelligens regler for udbydere af sådanne modeller. Dette omfatter gennemsigtighed og ophavsretsrelaterede regler. For modeller, der kan indebære systemiske risici, bør udbyderne vurdere og afbøde disse risici.
Reglerne i forordningen om kunstig intelligens til almen brug træder i kraft i august 2025. AI-kontoret letter udarbejdelsen af en adfærdskodeks med nærmere oplysninger om disse regler. Kodeksen bør udgøre et centralt redskab for udbydere til at påvise overholdelse af forordningen om kunstig intelligens og indarbejde den nyeste praksis.
Forvaltning og gennemførelse
Det Europæiske Kontor for Kunstig Intelligens og medlemsstaternes myndigheder er ansvarlige for at gennemføre, føre tilsyn med og håndhæve forordningen om kunstig intelligens. AI-udvalget, ekspertpanelet og det rådgivende forum styrer og rådgiver om forvaltningen af AI-forordningen. Læs mere om forvaltning og håndhævelse af forordningen om kunstig intelligens.
Næste skridt
AI-forordningen trådte i kraft den 1. august 2024 og finder fuld anvendelse to år senere den 2. august 2026 med visse undtagelser:
- forbud og forpligtelser vedrørende AI-færdigheder, der trådte i kraft den 2. februar 2025
- Forvaltningsreglerne og forpligtelserne for AI-modeller til almen brug finder anvendelse fra den 2. august 2025.
- reglerne for højrisiko-AI-systemer — indlejret i regulerede produkter — har en forlænget overgangsperiode indtil den 2. august 2027
Seneste nyheder
Politik og lovgivning
Rapport/undersøgelse
- 12-05-2025Europa-Kommissionen offentliggør analyse af feedback fra interessenter om definitioner af kunstig intelligens og forbudt praksis i forbindelse med offentlige høringer
- 23-09-2024EU study calls for strategic AI adoption to transform public sector services
- 05-04-2024Kunstig intelligens til almenvellet: EU's og USA's forskningsalliance inden for kunstig intelligens til gavn for offentligheden
Faktablad/infografik
Se også
Det store billede
Grav dybere
-
Det Europæiske AI-kontor og de nationale markedsovervågningsmyndigheder er ansvarlige for at...
-
Kommissionen sigter mod at øge antallet af AI-eksperter ved at uddanne og tiltrække flere forskere...