EU AI Act för jurister: vad du behöver veta före 2 augusti 2026
EU AI Act (förordning (EU) 2024/1689) trädde i kraft 1 augusti 2024 men tillämpas stegvis. Den största milstolpen för advokatbyråer och in-house-team är 2 augusti 2026 då transparenskrav och högrisk-systemskyldigheter börjar gälla.
För jurister väcker det två konkreta frågor:
- Är AI-verktygen jag använder (ChatGPT, Claude, Legora, Juno, LexCodex) "AI-system" enligt förordningen — och måste jag som användare följa några krav?
- Hur klassificerar jag mina klienters AI-system när de frågar mig?
Den här artikeln svarar på båda. Vi använde också vårt eget AI Act-verktyg på LexCodex själv och delar resultatet som case-study.
Tidslinje: när gäller vad?
| Datum | Vad börjar gälla |
|---|---|
| 1 aug 2024 | AI Act trädde i kraft |
| 2 feb 2025 | Förbjudna AI-praktiker (Art. 5) |
| 2 aug 2025 | GPAI-skyldigheter (Art. 51-55) |
| 2 aug 2026 | Högrisk-system + transparens-skyldigheter (Art. 50) |
| 2 aug 2027 | Högrisk-system under Annex I-produkter |
För de flesta jurister är det 2 augusti 2026 som är den relevanta milstolpen — då måste alla limited-risk-system uppfylla Art. 50 transparenskrav.
Riskklasserna: en snabbgenomgång
AI Act delar in AI-system i fyra risk-klasser:
- Förbjudet (Art. 5): Subliminal manipulation, social scoring av offentlig myndighet, real-time biometrisk identifiering i offentliga rum, emotionsdetektion på arbetsplatser/skolor m.fl. Sanktion: upp till 35 MEUR eller 7% av global omsättning.
- Högrisk (Annex III): AI-system inom rekrytering, utbildning, kreditbedömning, kritisk infrastruktur, brottsbekämpning, rättsväsendet (men endast för domstolar), gränskontroll. Kräver omfattande dokumentation, riskhantering, mänsklig tillsyn, registrering i EU-databas. Sanktion: upp till 15 MEUR eller 3% av omsättning.
- Begränsad risk (limited risk, Art. 50): AI-system som interagerar direkt med fysiska personer eller genererar syntetiskt innehåll. Krav: informera användaren om AI-interaktion, märka AI-genererat innehåll. Inga andra obligatoriska krav.
- Minimal risk: Allt annat. Inga AI Act-specifika skyldigheter (men GDPR och annan lagstiftning gäller fortfarande).
För jurister: är ditt AI-verktyg ett AI-system?
Korta svaret: ja, men det är leverantören som bär huvudansvaret.
När du som advokat eller in-house-jurist använder ChatGPT, Claude, Legora, Juno eller LexCodex, är du en "deployer" (användare) under förordningen. Leverantören (OpenAI, Anthropic, Legora-bolaget, Norstedts, LexCodex/Nordicbysight) bär de tunga skyldigheterna kring att tillhandahålla systemet.
Som deployer har du:
- För minimal/limited risk-system: i princip inga AI Act-specifika skyldigheter. Men GDPR, sekretess, advokatetik och liknande gäller självklart.
- För högrisk-system (om du använder dem): Art. 26 ställer krav på övervakning, dokumentation, mänsklig tillsyn och rapportering av incidenter. De flesta juridiska AI-verktyg är dock inte högrisk.
I praktiken: om du använder ett juridiskt AI-verktyg som hjälper dig granska avtal, formulera NDA, eller researcha rättspraxis — det är troligen limited risk. Du behöver bara säkerställa att leverantörens transparens-information är på plats (vilket är leverantörens jobb).
För jurister: hur klassificerar du klienters AI-system?
Det här är där det blir intressant. Klienter kommer att fråga: "är vårt AI-system högrisk?" och du behöver kunna svara.
Fyra-stegs-process:
- Är det förbjudet? Gå igenom Art. 5-listan. Om ja: stoppa systemet.
- Faller det under Annex III? Gå igenom Annex III pkt 1-8. Vanliga relevanta områden: HR/rekrytering (pkt 4), kreditbedömning (pkt 5), utbildning (pkt 3).
- Är det ett system som interagerar med människor eller genererar syntetiskt innehåll? Då är det limited risk med Art. 50-krav.
- Annars: minimal risk.
Den vanligaste fallgropen vi ser: klienter klassificerar sitt AI-system som högrisk "för säkerhets skull". Det är dyrt — högrisk innebär omfattande dokumentationskrav, riskhanteringssystem, kvalitetshantering, registrering i EU-databas och löpande övervakning. Klassificera korrekt, inte konservativt.
Case study: vi klassificerade LexCodex själva
Vi tyckte det var rimligt att äta vår egen hundmat. Den 3 maj 2026 körde vi LexCodex eget AI Act-verktyg på LexCodex som AI-system. Resultatet:
Tillämpliga skyldigheter: Art. 50 transparenskrav (informera användare om AI-interaktion + märka AI-genererat innehåll). Art. 25 downstream value chain (ge användare nödvändig information).
Dokumentation: Formell klassificeringsrapport (10 sektioner enligt revisorvänlig struktur).
Varför inte högrisk? LexCodex är ett juridiskt AI-verktyg riktat till privata advokater och in-house-team — inte till domstolar eller rättsmyndigheter. Annex III pkt 8 ("AI-system avsedda för rättsliga myndigheter") är därför inte tillämplig. Inga av Annex III pkt 1-7 (rekrytering, utbildning, kredit etc.) är heller relevanta.
Varför limited risk och inte minimal? LexCodex genererar syntetiskt textinnehåll (juridisk analys) och interagerar direkt med användare. Art. 50 är därför tillämplig. Vi uppfyller redan kraven: disclaimer-banner ovanför varje verktygsformulär, footer-disclaimer på varje sida, all output märkt som AI-genererad.
GPAI-villkor: LexCodex bygger på Anthropic Claude (en GPAI). GPAI-skyldigheterna under Art. 51-55 ligger på Anthropic som leverantör, inte på LexCodex som downstream-användare. Vår skyldighet är att följa Art. 25 — vilket vi gör genom transparens-disclaimers.
Konkret checklista för jurister
Innan 2 augusti 2026, gå igenom följande:
- Inventarie över AI-verktyg du använder. ChatGPT, Claude, Legora, Juno, LexCodex, Lexnova, JP Infonet, Harvey — vilka licenser har byrån? Vad används de till?
- Verifiera leverantörens transparens-information. Får du och dina klienter veta att resultatet är AI-genererat? Finns disclaimer i tydlig form?
- Granska klientavtal. Har du klausuler om AI-användning? Klienterna kommer börja fråga.
- Uppdatera information till klienter. När du använder AI för deras ärende, informera (sekretessbelagda dokument bör inte gå genom AI utan ZDR + DPA).
- Klassificera klienters AI-system när de frågar. Använd ett AI Act-verktyg (vårt egna eller motsvarande) för formell klassificering. Dokumentera resultatet.
- Utbilda kollegor. Många i byrån vet inte vad AI Act innebär. 30-minuters-genomgång räcker långt.
- Övervaka Kommissionens delegerade akter. Specifika tekniska krav (märkning, audit-loggning) kommer fastställas i delegerade akter under 2026-2027.
Sammanfattning
EU AI Act är inte slutet på AI i juridik — det är ett ramverk för ansvarsfullt AI-användande. För de flesta advokatbyråer och in-house-team som använder etablerade juridiska AI-verktyg är situationen relativt enkel:
- Verktyget är troligen limited risk eller minimal risk
- Leverantören bär huvudansvaret för efterlevnad
- Du som deployer har lättare skyldigheter (informera klienter, dokumentera användning)
- När klienter frågar om sina egna AI-system: använd en strukturerad klassificeringsmetod istället för att gissa
Om du vill testa hur klassificeringen fungerar i praktiken — prova vårt AI Act-verktyg. Det är gratis att starta och tar ~10 minuter att fylla i. Resultatet är en formell rapport du kan dela med klienter eller använda internt.
Vanliga frågor
När träder EU AI Act i kraft?
AI Act trädde i kraft 1 augusti 2024. Förbjudna AI-praktiker började gälla 2 februari 2025. GPAI-skyldigheter 2 augusti 2025. Högrisk-system + transparens-skyldigheter 2 augusti 2026. Högrisk-system under Annex I-produkter 2 augusti 2027.
Är min advokatbyrås AI-användning ett "AI-system" enligt AI Act?
Som användare av ett AI-verktyg är du en "deployer" under förordningen. Skyldigheterna ligger primärt på leverantören. Som deployer har du Art. 26-skyldigheter om du använder högrisk-system — vilket de flesta juridiska AI-verktyg INTE är.
Hur klassificerar jag ett AI-system enligt AI Act?
Fyra steg: (1) Är systemet förbjudet enligt Art. 5? (2) Faller det under Annex III (högrisk)? (3) Faller det under Art. 50 transparenskrav (limited risk)? (4) Annars är det minimal risk utan extra krav. För jurist-AI-verktyg är det vanligaste resultatet limited risk.
Vad innebär "limited risk" enligt AI Act?
Limited risk-system har transparenskrav enligt Art. 50: användare ska informeras om att de interagerar med AI, och AI-genererat innehåll ska märkas. Inga andra obligatoriska krav. För juridiska AI-verktyg som genererar analys är limited risk det vanligaste resultatet.
Klassificera ett AI-system med vårt verktyg
3 minuters frågeflöde, formell klassificeringsrapport på begäran. Gratis under Pro-trial.
Öppna AI Act-verktyget → Tillbaka till blogg⚠ Detta är en allmän översikt över EU AI Act, inte juridisk rådgivning. För specifika klassificeringsfrågor konsultera kvalificerad jurist eller använd ett strukturerat klassificeringsverktyg som dokumenterar dina antaganden.