← Blogg

EU AI Act for jurister: hva du må vite før 2. august 2026

Publisert 3. mai 2026 · 8 minut$1s lesetid · Af GD · LexCodex

EU AI Act (forordning (EU) 2024/1689) trådte i kraft 1. august 2024, men anvendes trinnvis. Den største milepælen for advokatfirmaer og in-house-team er 2. august 2026, da transparenskrav og høyrisiko-pliktene begynner å gjelde.

Selv om Danmark ikke er EU-medlem, gælder AI Act gjennom EØS-aftalen — og danske jurister og deres klienter må forholde seg til samme krav som EU-baserte aktører.

For jurister reiser det to konkrete spørgsmål:

  1. Er AI-værktøjerene jeg bruger (ChatGPT, Claude, Legora, Juno, LexCodex) "AI-systemer" etter forordningen — og må jeg som bruger følge noen krav?
  2. Hvordan klassifiserer jeg klienters AI-systemer når de spør meg?

Denne artikkelen svarer på begge. Vi brukte også vores eget AI Act-værktøjer på LexCodex selv og deler resultatet som casestudie.

Tidslinje: hva gælder når?

DatoHva begynner å gjelde
1. aug 2024AI Act trådte i kraft
2. feb 2025Forbudte AI-praksiser (Art. 5)
2. aug 2025GPAI-plikter (Art. 51-55)
2. aug 2026Høyrisiko-systemer + transparenskrav (Art. 50)
2. aug 2027Høyrisiko-systemer under Annex I-produkter

For de fleste jurister er det 2. august 2026 som er den relevante milepælen — da må alle limited-risk-systemer opfylde Art. 50 transparenskrav.

Risikoklassene: en kjapp gennemgang

AI Act deler AI-systemer inn i fire risiko-klasser:

  1. Forbudt (Art. 5): Subliminal manipulasjon, sosial scoring fra offentlig myndighet, sanntids biometrisk identifikasjon i offentlige rom, emosjonsdeteksjon på arbeidsplasser/skoler m.fl. Sanksjon: opptil 35 MEUR eller 7 % af global omsetning.
  2. Høyrisiko (Annex III): AI-systemer innen rekruttering, utdanning, kredittvurdering, kritisk infrastruktur, politiarbeid, rettsvesenet (men kun for domstole), grensekontroll. Kræver omfattende dokumentasjon, risikohåndtering, menneskelig tilsyn, registrering i EU-database. Sanksjon: opptil 15 MEUR eller 3 % af omsetning.
  3. Begrænset risiko (limited risk, Art. 50): AI-systemer som samhandler direkte med fysiske personer eller genererer syntetisk innhold. Krav: informer brugeren om AI-samhandling, merk AI-generert innhold. Ingen andre obligatoriske krav.
  4. Minimal risiko: Alt annet. Ingen AI Act-specifikke plikter (men privatlivforordningen og annen lovgivning gælder fortsatt).
Viktig nyanse om Annex III pkt 8 (rettsvesenet): Teksten er specifik — den gælder "AI-systems intended to be used by a judicial authority or on their behalf". Det betyr domstole og myndigheter innen rettsvesenet, ikke private advokatfirmaer eller in-house-jurister. AI-værktøjeret dit som hjælper deg analysere kontrakter er ikke automatisk høyrisiko bare fordi det handler om juss.

For jurister: er AI-værktøjeret dit et AI-system?

Kort svar: ja, men det er leverandøren som bærer hovedansvaret.

Når du som advokat eller in-house-jurist bruger ChatGPT, Claude, Legora, Juno eller LexCodex, er du en "deployer" (bruger) under forordningen. Leverandøren (OpenAI, Anthropic, Legora-selskapet, Norstedts, LexCodex/Nordicbysight) bærer de tunge pliktene rundt å tilby systemet.

Som deployer har du:

I praksis: hvis du bruger et juridisk AI-værktøjer som hjælper deg gjennomgå kontrakter, formulere NDA-er, eller researche rettspraksis — det er trolig limited risk. Du trenger bare å påse at leverandørens transparens-informasjon er på plass (som er leverandørens jobb).

For jurister: hvordan klassifiserer du klienters AI-systemer?

Det er her det blir interessant. Klienter kommer til å spørge: "er AI-systemet vores høyrisiko?" og du må kunne svare.

Fire-trinns prosess:

  1. Er det forbudt? Gå gjennom Art. 5-listen. Hvis ja: stopp systemet.
  2. Faller det under Annex III? Gå gjennom Annex III pkt 1-8. Vanlige relevante områder: HR/rekruttering (pkt 4), kredittvurdering (pkt 5), utdanning (pkt 3).
  3. Er det et system som samhandler med mennesker eller genererer syntetisk innhold? Da er det limited risk med Art. 50-krav.
  4. Ellers: minimal risiko.

Den vanligste fellen vi ser: klienter klassifiserer AI-systemet sit som høyrisiko "for sikkerheds skyld". Det er dyrt — høyrisiko betyr omfattende dokumentasjonskrav, risikostyringssystem, kvalitetsstyring, registrering i EU-database og løpende overvågning. Klassifiser korrekt, ikke konservativt.

Casestudie: vi klassifiserte LexCodex selv

Vi syntes det var rimelig å spise vår egen hundemat. Den 3. mai 2026 kjørte vi LexCodex eget AI Act-værktøjer på LexCodex som AI-system. Resultatet:

Klassifisering: Limited Risk (Art. 6)
Anvendelige plikter: Art. 50 transparenskrav (informer brugere om AI-samhandling + merk AI-generert innhold). Art. 25 downstream value chain (gi brugere nødvendig informasjon).
Dokumentasjon: Formell klassifiseringsrapport (10 seksjoner etter revisorvennlig struktur).

Hvorfor ikke høyrisiko? LexCodex er et juridisk AI-værktøjer rettet mot private advokater og in-house-team — ikke mot domstole eller rettsmyndigheter. Annex III pkt 8 ("AI-systemer beregnet på retlige myndigheter") er derfor ikke anvendelig. Ingen af Annex III pkt 1-7 (rekruttering, utdanning, kreditt etc.) er heller relevante.

Hvorfor limited risk og ikke minimal? LexCodex genererer syntetisk tekstinnhold (juridisk analyse) og samhandler direkte med brugere. Art. 50 er derfor anvendelig. Vi opfylder allerede kravene: disclaimer-banner over hvert værktøjerskjema, footer-disclaimer på hver side, all output merket som AI-generert.

GPAI-vilkår: LexCodex bygger på Anthropic Claude (en GPAI). GPAI-pliktene under Art. 51-55 ligger på Anthropic som leverandør, ikke på LexCodex som downstream-bruger. Vår plikt er å følge Art. 25 — som vi gjør gjennom transparens-disclaimere.

Konkret sjekkliste for jurister

Før 2. august 2026, gå gjennom følgende:

  1. Inventar over AI-værktøjer du bruger. ChatGPT, Claude, Legora, Juno, LexCodex, Lexnova, JP Infonet, Harvey — hvilke lisenser har firmaet? Hva bruges de til?
  2. Verificér leverandørens transparens-informasjon. Får du og klientene dine vite at resultatet er AI-generert? Finnes disclaimer i tydelig form?
  3. Gjennomgå klientaftaler. Har du klausuler om AI-bruk? Klientene begynner å spørge.
  4. Oppdater informasjon til klienter. Når du bruger AI for saken deres, informer (taushetsbelagte dokumenter bør ikke gå gjennom AI uden ZDR + DPA).
  5. Klassifiser klienters AI-systemer når de spør. Bruk et AI Act-værktøjer (vores eget eller tilsvarende) for formell klassifisering. Dokumenter resultatet.
  6. Lær opp kolleger. Mange i firmaet vet ikke hva AI Act betyr. 30-minut$1s gennemgang rekker langt.
  7. Overvåk Kommisjonens delegerte rettsakter. Spesifikke tekniske krav (merking, audit-logging) vil bli fastsatt i delegerte rettsakter i 2026-2027.

Sammendrag

EU AI Act er ikke slutten på AI i juridisk praksis — det er et rammeverk for ansvarlig AI-bruk. For de fleste advokatfirmaer og in-house-team som bruger etablerte juridiske AI-værktøjer er situasjonen relativt enkel:

Hvis du vil teste hvordan klassifiseringen fungerer i praksis — prøv vores AI Act-værktøjer. Det er fritt å starte og tar ~10 minut$1 å fylle ut. Resultatet er en formell rapport du kan dele med klienter eller bruke internt.

Vanlige spørgsmål

Når trer EU AI Act i kraft?

AI Act trådte i kraft 1. august 2024. Forbudte AI-praksiser begynte å gjelde 2. februar 2025. GPAI-plikter 2. august 2025. Høyrisiko-systemer + transparenskrav 2. august 2026. Høyrisiko-systemer under Annex I-produkter 2. august 2027.

Er advokatfirmaets AI-bruk et "AI-system" etter AI Act?

Som bruger af et AI-værktøjer er du en "deployer" under forordningen. Pliktene ligger primært på leverandøren. Som deployer har du Art. 26-plikter dersom du bruger høyrisiko-systemer — som de fleste juridiske AI-værktøjer IKKE er.

Hvordan klassifiserer jeg et AI-system etter AI Act?

Fire trinn: (1) Er systemet forbudt etter Art. 5? (2) Faller det under Annex III (høyrisiko)? (3) Faller det under Art. 50 transparenskrav (limited risk)? (4) Ellers er det minimal risk uden ekstra krav. For jurist-AI-værktøjer er det vanligste resultatet limited risk.

Hva betyr "limited risk" etter AI Act?

Limited risk-systemer har transparenskrav etter Art. 50: brugere skal informeres om at de samhandler med AI, og AI-generert innhold skal merkes. Ingen andre obligatoriske krav. For juridiske AI-værktøjer som genererer analyse er limited risk det vanligste resultatet.

Klassifiser et AI-system med vores værktøjer

3 minut$1s spørgsmålsflyt, formell klassifiseringsrapport på forespørsel.

Åpne AI Act-værktøjeret → Tilbake til blogg

⚠ Dette er en generell oversikt over EU AI Act, ikke juridisk rådgivning. For specifikke klassifiseringsspørgsmål, konsulter kvalificeret jurist eller bruk et strukturert klassifiseringsværktøjer som dokumenterer dine antakelser.