AI Act: EU's forordning om kunstig intelligens

For at sikre fælles spilleregler for brugen og udviklingen af AI i Europa, blev de 27 EU-medlemslande i 2023 enige om udformningen af verdens første lovgivning for kunstig intelligens, AI Act, eller på dansk AI-forordningen. Forordningen blev vedtaget i foråret 2024 og træder gradvist i kraft frem mod 2027. Få overblik over, hvem lovgivningen gælder for, og hvordan organisationer forbereder sig.  

Baggrund og formål

AI Act er et initiativ fra EU, der skal sørge for at regulere udviklingen og brugen af AI. Formålet med lovgivningen er at sikre, at der er klare retningslinjer for udviklingen af ansvarlig AI og at menneskerettighederne overholdes.  

EU-Kommissionen har sendt en standardiseringsanmodning til de europæiske standardiseringsorganisationer om at udvikle standarder for implementering og anvendelse af ansvarlig AI. Disse standarder er et værktøj til at sikre, at man lever op til kravene i forordningen og danner et solidt fundament til at opnå compliance, sikkerhed, udvikling og effektivitet. 

Hvem gælder lovgivningen for?

Forordningen gælder for alle organisationer og virksomheder, der benytter AI-systemer. Lovgivningen er baseret på en vurdering af, hvor stor en risiko brugen af systemet kan udgøre. Opbygningen er inddelt efter fire risikokategorier:  

  • Minimal eller ingen risiko: Disse systemer er ikke underlagt særlige krav, da de anses for at være lavrisiko. Det kan eksempelvis være AI-systemer til autokorrektur, navigation eller anbefalinger på streamingtjenester.
  • Begrænset risiko: AI-systemer, der kræver gennemsigtighed, men ikke nødvendigvis omfattende kontrol. Eksempler kan være chatbots og ansigtsgenkendelse i fotosortering. 
  • Høj risiko: AI-systemer, der kan påvirke folks rettigheder og sikkerhed, såsom ansigtsgenkendelse i offentlige rum, kreditvurdering og rekrutteringssystemer. Disse systemer skal opfylde krav til dokumentation, gennemsigtighed og sikkerhed.  
  • Uacceptabel risiko: AI-systemer, der anses for at være en trussel mod sikkerhed, menneskerettigheder og demokrati, såsom social scoring og AI-baserede våben. Disse systemer er forbudt under AI-forordningen. 

I organisationer, som benytter AI-systemer, skal der foretages en selvvurdering af, hvilket niveau af risiko systemet ligger under, som man derefter kan planlægge sin indsats ud fra.  

Koblingen til standarder

De kommende standarder for AI skal bl.a. være med til at sikre en ansvarlig kobling mellem teknologi og menneske samt etisk brug af data og algoritmer. Standarderne kan hjælpe de virksomheder og organisationer, der anvender eller udvikler AI-systemer, som bliver karakteriseret som højrisiko og som derfor skal leve op til kravene i AI Act d. 2. august 2026. Standarderne kan dog bruges af alle.

Sådan kan organisationer forberede sig

De standarder, som skal hjælpe organisationer med at leve op til AI-forordningen, er i gang med at blive udviklet. De kommende standarder for kunstig intelligens forventes at være klar til høring i slutningen af 2025 og færdige i første halvår af 2026.  

De virksomheder og organisationer, der anvender AI-systemer, som bliver karakteriseret som højrisiko, kan dog allerede nu begynde at forberede sig på de krav, de skal leve op til d. 2. august 2026. Der findes nemlig en række værktøjer, som kan bidrage til forståelsen af, hvordan man kan arbejde med ansvarlig udvikling og brug af AI-systemer. Det er dog kun de harmoniserede standarder (EN), der kan give dig en formodning om overensstemmelse med AI-loven. De værktøjer, der kan hjælpe dig på vej er bl.a.: 

ISO/IEC 42001 – Et internationalt ledelsessystem for kunstig intelligens 
ISO/IEC 42001 er verdens første standard for AI-ledelsessystemer, der giver værdifuld vejledning inden for dette hastigt forandrende teknologiområde.  

Standarden kan hjælpe med at få styr på dokumentation omkring AI, hvilket kan være en fordel, når de kommende AI-standarder skal implementeres.  

ISO/IEC 42001 adresserer de unikke udfordringer, AI udgør for en organisation, som fx etiske hensyn, gennemsigtighed og behovet for kontinuerlig læring. Den fastlægger en struktureret måde, hvorpå organisationer kan styre risici og muligheder forbundet med AI, så der skabes balance mellem innovation og styring.  

Specifikationer 
Dansk Standard har udarbejdet tre specifikationer for AI med fokus på henholdsvis bias, gennemsigtighed og beslutningsstøttende ift. offentlig sagsbehandling. Specifikationerne er et værktøj til danske virksomheder og organisationer, der har brug for hjælp til deres arbejde med AI. Derudover er der en specifikation mere på vej, som har fokus på AI-færdigheder, hvilket også er et krav i AI Act.  Den forventes at udkomme i juni 2025. 

Kommende standarder 
De kommende harmoniserede standarder for AI skal bl.a. være med til at sikre en ansvarlig kobling mellem teknologi og menneske samt etisk brug af data og algoritmer. Standarderne bliver et solidt fundament til at opnå compliance, sikkerhed, udvikling og effektivitet.  

Der kommer en række harmoniserede standarder til at hjælpe organisationer og virksomheder med implementeringen af AI-forordningen, herunder:  

  • Kvalitetsledelsessystem (QMS): Et system til at holde styr på processer, sikkerhed og gennemsigtighed, når man som organisation benytter AI-systemer.
  • Risikoledelse: Krav og vejledning til, hvordan man adresserer og mitigerer risici forbundet med at AI-system.
  • Trustworthiness: En overordnet ramme for trustworthiness eller pålidelighed af AI-systemer, herunder begreber, koncepter, horisontale krav, vejledning og en metode til at målrette rammen til specifikke målgrupper.
  • Overensstemmelsesvurdering: Metoder til overensstemmelsesvurdering af produkter, tjenesteydelser, processer, ledelsessystemer, organisationer og personer involveret i udviklingen og brugen af AI-systemer.
  • Cybersikkerhed  

Derudover kommer der standarder om datasæt, bias, billedgenkendelse og naturlig sprogprocessering.  

Få indblik eller deltag i arbejdet med standarderne

Bliv en del af Dansk Standards udvalg for kunstig intelligens, og få adgang til at deltage i arbejdet med at udvikle europæiske og globale AI-standarder. Udvalget er åbent for alle typer medlemmer, og vi har repræsentanter fra store og små virksomheder, offentlige institutioner, NGO’er og forbrugere.  

Hvis du ønsker at få indblik i og bidrage til de kommende europæiske og internationale standarder for kunstig intelligens, kan du blive medlem af Dansk Standards udvalg for kunstig intelligens. Læs mere om udvalget her her: https://www.ds.dk/S-855

Du kan også få indblik i standarderne, selv om du ikke er medlem hos Dansk Standard. Standarderne kommer i offentlig høring, inden de bliver udgivet. Når de er i offentlig høring, kan alle læse med og komme med input til de endelige versioner. Det betyder også, at alle her har mulighed for at få en idé om, hvad de endelige standarder kommer til at indeholde. 

Kontakt

Kim Skov Hilding
Kim Skov Hilding Chefkonsulent | Chief Consultant
Standardisering | Digital & Bæredygtighed
E: ksk@ds.dk
T: 39 96 62 17
Berit Aadal
Berit Aadal Chefkonsulent | Chief Consultant
Standardisering | Digital & Bæredygtighed
E: baa@ds.dk
T: 39 96 62 96

 

Disse videoer blev filmet under det 9. plenarmøde i CEN CENELEC Joint Technical Committee (JTC 21) 'Artificial Intelligence' i Dublin, Irland i februar 2024.

Filmet af National Standards Authority of Ireland (NSAI).












Andre artikler i serien

Specifikationer

DS/PAS 2500-1:2020

Download i webshop

DS/PAS 2500-1:2020

Kunstig intelligens – Del 1: Gennemsigtighed

DS/PAS 2500-2:2020

Download i webshop

DS/PAS 2500-2:2020

Kunstig intelligens – Del 2: Beslutningsstøttende anvendelse i offentlig sagsbehandling

DS/PAS 2500-3:2023

Download i webshop

DS/PAS 2500-3:2023

Kunstig intelligens – Del 3: Bias