AI-akten är den första rättsliga ramen någonsin för AI, som tar itu med riskerna med AI och positionerar Europa att spela en ledande roll globalt.
AI-akten (förordning (EU) 2024/1689 om harmoniserade regler för artificiell intelligens) är den första övergripande rättsliga ramen någonsin för AI i världen. Syftet med reglerna är att främja tillförlitlig AI i Europa.
I AI-akten fastställs en tydlig uppsättning riskbaserade regler för AI-utvecklare och AI-användare när det gäller specifik användning av AI. AI-akten är en del av ett bredare paket med politiska åtgärder för att stödja utvecklingen av tillförlitlig AI, som också omfattar AI-innovationspaketet, lanseringen av AI-fabriker och den samordnade planen för AI. Tillsammans garanterar dessa åtgärder säkerhet, grundläggande rättigheter och människocentrerad AI och stärker spridningen, investeringarna och innovationen inom AI i hela EU.
För att underlätta övergången till det nya regelverket har kommissionen lanserat AI-pakten, ett frivilligt initiativ som syftar till att stödja det framtida genomförandet, samarbeta med berörda parter och uppmana leverantörer och spridare av AI från och utanför Europa att uppfylla de viktigaste skyldigheterna i AI-akten i förväg.
Varför behövs regler om AI?
AI-akten säkerställer att européerna kan lita på vad AI har att erbjuda. Även om de flesta AI-system utgör begränsade till inga risker och kan bidra till att lösa många samhällsutmaningar, skapar vissa AI-system risker som vi måste ta itu med för att undvika oönskade resultat.
Till exempel är det ofta inte möjligt att ta reda på varför ett AI-system har fattat ett beslut eller förutsägelse och vidtagit en viss åtgärd. Det kan därför bli svårt att bedöma om någon har missgynnats på ett orättvist sätt, till exempel i ett anställningsbeslut eller i en ansökan om ett offentligt förmånssystem.
Även om befintlig lagstiftning ger ett visst skydd är den inte tillräcklig för att ta itu med de särskilda utmaningar som AI-system kan medföra.
En riskbaserad metod
I AI-akten fastställs fyra risknivåer för AI-system:
Oacceptabel risk
Alla AI-system som anses utgöra ett tydligt hot mot människors säkerhet, försörjningsmöjligheter och rättigheter är förbjudna. I AI-akten förbjuds åtta metoder, nämligen
- skadlig AI-baserad manipulation och vilseledande
- skadligt AI-baserat utnyttjande av sårbarheter
- social poängsättning
- Bedömning eller förutsägelse av risken för enskilda brott
- oriktad skrapning av internet- eller CCTV-material för att skapa eller utöka databaser för ansiktsigenkänning
- Känsloigenkänning på arbetsplatser och utbildningsinstitutioner
- Biometrisk kategorisering för att härleda vissa skyddade egenskaper
- Biometrisk fjärridentifiering i realtid för brottsbekämpande ändamål på allmänt tillgängliga platser
Hög risk
AI-användningsfall som kan utgöra allvarliga risker för hälsa, säkerhet eller grundläggande rättigheter klassificeras som högriskfall. Dessa användningsfall med hög risk omfattar följande:
- AI-säkerhetskomponenter i kritisk infrastruktur (t.ex. transport), vars misslyckande skulle kunna äventyra medborgarnas liv och hälsa
- AI-lösningar som används vid utbildningsinstitutioner och som kan avgöra tillgången till utbildning och yrkeslivets förlopp (t.ex. poängsättning av prov)
- AI-baserade säkerhetskomponenter i produkter (t.ex. AI-tillämpningar inom robotassisterad kirurgi)
- AI-verktyg för anställning, hantering av arbetstagare och tillgång till egenföretagande (t.ex. programvara för CV-sortering för rekrytering)
- Vissa fall av AI-användning som används för att ge tillgång till viktiga privata och offentliga tjänster (t.ex. kreditbedömning som nekar medborgarna möjlighet att få ett lån)
- AI-system som används för biometrisk fjärridentifiering, känsloigenkänning och biometrisk kategorisering (t.ex. AI-system för att retroaktivt identifiera en snattare)
- AI-användningsfall inom brottsbekämpning som kan inkräkta på människors grundläggande rättigheter (t.ex. utvärdering av bevisens tillförlitlighet)
- AI-användningsfall inom migrations-, asyl- och gränskontrollhantering (t.ex. automatisk prövning av viseringsansökningar)
- AI-lösningar som används vid rättskipning och demokratiska processer (t.ex. AI-lösningar för att förbereda domstolsavgöranden)
AI-system med hög risk omfattas av strikta skyldigheter innan de kan släppas ut på marknaden:
- Lämpliga system för riskbedömning och riskreducering.
- Högkvalitativa dataset som matar systemet för att minimera riskerna för diskriminerande resultat.
- loggning av verksamhet för att säkerställa spårbarhet av resultat
- detaljerad dokumentation med all nödvändig information om systemet och dess syfte för att myndigheterna ska kunna bedöma dess överensstämmelse
- Tydlig och adekvat information till spridaren.
- lämpliga åtgärder för mänsklig tillsyn
- hög robusthet, cybersäkerhet och noggrannhet
Begränsad risk
Detta avser de risker som är förknippade med behovet av transparens kring användningen av AI. Genom AI-akten införs särskilda upplysningsskyldigheter för att säkerställa att människor informeras när det är nödvändigt för att bevara förtroendet. När man till exempel använder AI-system som chatbots bör människor göras medvetna om att de interagerar med en maskin så att de kan fatta ett välgrundat beslut.
Dessutom måste leverantörer av generativ AI säkerställa att AI-genererat innehåll är identifierbart. Dessutom bör visst AI-genererat innehåll märkas på ett tydligt och synligt sätt, nämligen deepfake och text som offentliggörs i syfte att informera allmänheten om frågor av allmänt intresse.
Minimal eller ingen risk
AI-akten inför inte regler för AI som anses vara minimal eller ingen risk. De allra flesta AI-system som för närvarande används i EU ingår i denna kategori. Detta inkluderar applikationer som AI-aktiverade videospel eller spamfilter.
Hur fungerar det i praktiken för leverantörer av AI-system med hög risk?
Hur fungerar det i praktiken för leverantörer av AI-system med hög risk?
När ett AI-system väl finns på marknaden ansvarar myndigheterna för marknadskontroll, spridarna säkerställer mänsklig tillsyn och övervakning och leverantörerna har ett system för övervakning efter utsläppandet på marknaden. Leverantörer och spridare kommer också att rapportera allvarliga incidenter och funktionsfel.
En lösning för tillförlitlig användning av stora AI-modeller
AI-modeller för allmänna ändamål kan utföra en rad olika uppgifter och håller på att bli grunden för många AI-system i EU. Vissa av dessa modeller skulle kunna medföra systemrisker om de är mycket kapabla eller används i stor utsträckning. För att säkerställa säker och tillförlitlig AI införs genom AI-akten regler för leverantörer av sådana modeller. Detta inbegriper öppenhet och upphovsrättsrelaterade regler. För modeller som kan medföra systemrisker bör leverantörerna bedöma och minska dessa risker.
AI-lagens regler om AI för allmänna ändamål träder i kraft i augusti 2025. AI-byrån underlättar utarbetandet av en uppförandekod för att specificera dessa regler. Uppförandekoden bör utgöra ett centralt verktyg för leverantörer för att visa efterlevnad av AI-akten, med användning av den senaste praxisen.
Styrning och genomförande
Europeiska AI-byrån och medlemsstaternas myndigheter ansvarar för att genomföra, övervaka och verkställa AI-akten. AI-nämnden, den vetenskapliga panelen och den rådgivande gruppen styr och ger råd om styrningen av AI-akten. Läs mer om styrningen och efterlevnaden av AI-akten.
Nästa steg
AI-akten trädde i kraft den 1 augusti 2024 och kommer att tillämpas fullt ut två år senare, den 2 augusti 2026, med vissa undantag:
- förbud och skyldigheter avseende AI-kompetens som trädde i kraft från och med den 2 februari 2025
- styrningsreglerna och skyldigheterna för AI-modeller för allmänna ändamål blir tillämpliga den 2 augusti 2025
- Reglerna för AI-system med hög risk – inbäddade i reglerade produkter – har en förlängd övergångsperiod till och med den 2 augusti 2027.
Senaste nytt
Politik och lagstiftning
Rapport/studie
- 12-05-2025Europeiska kommissionen offentliggör analys av berörda parters återkoppling om AI-definitioner och förbjudna metoder offentliga samråd
- 23-09-2024EU study calls for strategic AI adoption to transform public sector services
- 05-04-2024AI för det allmännas bästa: Forskningsalliansen mellan EU och USA inom AI för det allmännas bästa
Faktablad/infografik
Läs mer
Översikt
Fördjupning
-
Europeiska AI-byrån och de nationella marknadskontrollmyndigheterna ansvarar för att genomföra...
-
Kommissionen strävar efter att öka antalet AI-experter genom att utbilda och locka fler forskare och...