Hvordan LexCodex unngår hallusinasjoner — verificerede sitater og primærkilder
Hallusinasjoner er den enkeltstående største risikoen med generativ AI for juridisk arbejde. Når en LLM finner på en rettsavgjørelse som ikke finnes, citerer feil paragraf eller fabrikker en afgørelsers navn — og presenterer det med høy konfidens — kan konsekvensen i verste fall bli en advokat som leverer inn en stevning med oppdiktede prejudikater.
Det har allerede skjedd. I New York 2023 fikk advokat Steven Schwartz sanksjoner etter å ha sitert seks fabrikkerte ChatGPT-rettsavgjørelser i en klage mot Avianca Airlines. Lignende hendelser har siden blitt rapportert fra Storbritannia, Australia, Canada og Sverige.
For juridisk AI er troverdighet binær: én hallusinert referanse af hundre er hundre ganger verre enn ingen referanse i det hele tatt, fordi brugeren ikke kan vite hvilken som er hvilken. Denne artikkelen forklarer hvordan LexCodex er bygget for å minimere den risikoen.
Hva er en hallusinasjon — i praksis?
Hallusinasjoner i LLM-sammenhæng er ikke tilfeldige feil. De er statistisk plausible, men faktisk falske resultater. Modellen produserer tekst som ligner virkelige rettsavgjørelser — rigtig format på sitatet, plausible afgørelsernavn, rimelig år — men der den faktiske avgjørelsen ikke eksisterer.
Tre vanlige klasser af hallusinasjon i juridisk AI:
- Fabrikkerte rettsavgjørelser: "Rt. 2018 s. 423" som ikke finnes, eller der nummeret er rigtig, men sakens innhold er feil
- Feilaktige paragrafhenvisninger: AI-en henviser til "aftaleloven § 36 annet ledd" der paragrafen finnes, men leddet ikke er anvendelig
- Oppdiktede sitater fra doktrine: Sitater fra dansk litteratur som høres rimelige ut, men som ingen forfatter faktisk har skrevet
Den underliggende årsaken: LLM-er er ikke databaser. De er probabilistiske språkmodeller. Når du spør en ren LLM om dansk skadeerstatningsrett, får du den mest sannsynlige sekvensen ord basert på treningsdataen — ikke søkeresultater fra en verificeret rettskilde.
LexCodex tre-lags beskyttelse
For å håndtere dette bruger LexCodex tre komplementære teknikker. Ingen af dem er nok alene — kombinasjonen er poenget.
Lag 1: Hver juridisk påstand er bundet til en verificeret primærkilde
Når LexCodex genererer en analyse, henviser hver juridisk påstand til en specifik URL i en verificeret primærkilde. URL-mønstrene er forhåndsdefinerte i koden — AI-en kan ikke selv finne på en URL uden at den matcher et verificeret mønster.
Når du klikker på en sitert kilde, lander du direkte på Retsinformation eller Folketinget — ikke på en LexCodex-cachet version. Du verificérer selv mot original. Ingen mellomledd der hallusinasjoner kan snike seg inn.
Lag 2: Instruert usikkerhed — "si heller 'jeg vet ikke'"
System-prompten som styrer AI-en, indeholder eksplisitte instruksjoner: når modellen er usikker, skal den heller si "jeg er usikker, konsulter primærkilden" enn å fabrikkere en referanse. Det går mot LLM-ers default-atferd, som er å produsere flytende tekst selv når underlaget er tynt.
Konkret betyr det at du som bruger oftere får:
- "Jeg kjenner ikke til konkret praksis på dette punktet — tjek Retsinformation for aktuelle avgjørelser"
- "Denne bestemmelsen tolkes ulikt i ulike sammenhenger — primærkilden gir fullstendig kontekst"
Det er ikke AI-en som "gir opp". Det er AI-en som er instruert til å skille mellom "dette vet jeg sikkert" og "dette er jeg usikker på". Det skillet er det som skiller en brukbar juridisk AI fra en farlig.
Lag 3: Extended thinking — flertrinns-resonnement før svar
LexCodex bruger Anthropic Claudes extended thinking-funksjon. Det betyr at AI-en får resonnere i flere trinn internt før den gir et svar. For juridisk analyse er det avgjørende: en kontraktsklausul kan ha tre ulike retlige effekter afhængig af sammenhæng, og feil-tolkninger opstår oftest når AI-en hopper direkte fra spørgsmål til svar uden mellomliggende analyse.
I praksis vises ikke extended thinking i utdataet — du ser bare det endelige svaret. Men resonnementsprosessen som har ledet dit, er mer rigorøs. For komplekse spørgsmål (compliances-analyse, AI Act-klassifisering) gjør det stor forskjell i kvalitet.
Hva lagene IKKE beskytter mot
Spesifikt beskytter de ikke mot:
- Feil-tolkning af en korrekt sitert kilde. AI-en kan sitere rigtig rettsavgjørelse, men trekke feil slutning af den. Rigtig referanse, feil tolkning.
- Utdaterte tolkninger. Treningsdataen har en cutoff. Hvis praksis er endret etter den datogrensen, vises det ikke i AI-ens resonnement før du selv klikker inn på primærkilden.
- Sammenhengsløse råd. "Kontrakten din ser ut til å bryte med aftaleloven § 36" kan være korrekt på overflaten, men mangle nyanse om partssammenhengen og kommersielt formål.
Det er derfor vi konsekvent skriver "AI-assistert analyse — verificér mot primærkilden før beslutning" i disclaimer-bannere. Det er ikke juridisk dekkmantel — det er en presis beskrivelse af hva værktøjeret gjør.
Hvordan du som jurist verificérer at beskyttelsen fungerer
Test du kan gjøre selv når du evaluerer LexCodex (eller en annen juridisk AI):
- Be om praksis på et obskurt spørgsmål. Noe der det trolig ikke finnes publisert praksis. God AI skal si "jeg har ikke konkret praksis på dette" — ikke finne på.
- Klikk på alle lenker. Hver sitert kilde må lede til en verificérbar URL — ikke 404, ikke hub-side, men eksakt det dokumentet som siteres.
- Still samme spørgsmål med ulike formuleringer. Hvis svaret veksler mellom motsatte anbefalinger, er AI-en usikker — da skal den si det.
- Be om tolkning af en kjent doktrine-passasje. Sitater fra anerkjent dansk juridisk litteratur er lette å verificére. AI-en skal enten sitere korrekt eller si "jeg kan ikke gjengi specifikke passasjer".
Sammendrag
Hallusinasjons-prevensjon er ikke en silver bullet — det er et arkitekturspørgsmål. LexCodex tre lag (verificerede primærkilder, instruert usikkerhed, extended thinking) reduserer risikoen markant uden å eliminere den. Resten ligger på deg som bruger: verificér, klikk, kontroller.
For juridisk AI som skal bruges i klientarbeid er hallusinasjons-beskyttelse ikke et "nice-to-have" — det er forutsetningen for at værktøjeret i det hele tatt skal være brukbart. Vi tar det derfor på største alvor.
Les videre
EU AI Act for jurister — casestudie der LexCodex klassifiserte seg selv · Svenske legal AI 2026 — markedsoversikt
Prøv juridisk research → Tilbake til blogg⚠ AI-assistert analyse er ikke juridisk rådgivning. Verificér alltid mot primærkilden før beslutning.