← Blogg

Hvordan LexCodex unngår hallusinasjoner — verificerede sitater og primærkilder

Publisert 4. mai 2026 · 7 minut$1s lesetid · Af GD · LexCodex

Hallusinasjoner er den enkeltstående største risikoen med generativ AI for juridisk arbejde. Når en LLM finner på en rettsavgjørelse som ikke finnes, citerer feil paragraf eller fabrikker en afgørelsers navn — og presenterer det med høy konfidens — kan konsekvensen i verste fall bli en advokat som leverer inn en stevning med oppdiktede prejudikater.

Det har allerede skjedd. I New York 2023 fikk advokat Steven Schwartz sanksjoner etter å ha sitert seks fabrikkerte ChatGPT-rettsavgjørelser i en klage mot Avianca Airlines. Lignende hendelser har siden blitt rapportert fra Storbritannia, Australia, Canada og Sverige.

For juridisk AI er troverdighet binær: én hallusinert referanse af hundre er hundre ganger verre enn ingen referanse i det hele tatt, fordi brugeren ikke kan vite hvilken som er hvilken. Denne artikkelen forklarer hvordan LexCodex er bygget for å minimere den risikoen.

Hva er en hallusinasjon — i praksis?

Hallusinasjoner i LLM-sammenhæng er ikke tilfeldige feil. De er statistisk plausible, men faktisk falske resultater. Modellen produserer tekst som ligner virkelige rettsavgjørelser — rigtig format på sitatet, plausible afgørelsernavn, rimelig år — men der den faktiske avgjørelsen ikke eksisterer.

Tre vanlige klasser af hallusinasjon i juridisk AI:

  1. Fabrikkerte rettsavgjørelser: "Rt. 2018 s. 423" som ikke finnes, eller der nummeret er rigtig, men sakens innhold er feil
  2. Feilaktige paragrafhenvisninger: AI-en henviser til "aftaleloven § 36 annet ledd" der paragrafen finnes, men leddet ikke er anvendelig
  3. Oppdiktede sitater fra doktrine: Sitater fra dansk litteratur som høres rimelige ut, men som ingen forfatter faktisk har skrevet

Den underliggende årsaken: LLM-er er ikke databaser. De er probabilistiske språkmodeller. Når du spør en ren LLM om dansk skadeerstatningsrett, får du den mest sannsynlige sekvensen ord basert på treningsdataen — ikke søkeresultater fra en verificeret rettskilde.

LexCodex tre-lags beskyttelse

For å håndtere dette bruger LexCodex tre komplementære teknikker. Ingen af dem er nok alene — kombinasjonen er poenget.

Lag 1: Hver juridisk påstand er bundet til en verificeret primærkilde

Når LexCodex genererer en analyse, henviser hver juridisk påstand til en specifik URL i en verificeret primærkilde. URL-mønstrene er forhåndsdefinerte i koden — AI-en kan ikke selv finne på en URL uden at den matcher et verificeret mønster.

RetsinformationDansk lovgivning + bekendtgørelser
FolketingetProposisjoner, NOU, innstillinger
Regjeringen.noNOU-er + offentlige utredninger
Høyesterett41 kuraterte landemerker
DatatilsynetDansk GDPR-tilsyn
Folketingets OmbudsmandForvaltningsrettslig kontroll
Finanstilsynet10 tilsynsområder
Konkurrence- og ForbrugerstyrelsenKonkurranseavgjørelser
EUR-LexEU/EØS-ret
lagen.nuSvensk lovgivning
Sveriges DomstolarSvenske rettsavgjørelser
RiksdagenSvenske proposisjoner

Når du klikker på en sitert kilde, lander du direkte på Retsinformation eller Folketinget — ikke på en LexCodex-cachet version. Du verificérer selv mot original. Ingen mellomledd der hallusinasjoner kan snike seg inn.

Lag 2: Instruert usikkerhed — "si heller 'jeg vet ikke'"

System-prompten som styrer AI-en, indeholder eksplisitte instruksjoner: når modellen er usikker, skal den heller si "jeg er usikker, konsulter primærkilden" enn å fabrikkere en referanse. Det går mot LLM-ers default-atferd, som er å produsere flytende tekst selv når underlaget er tynt.

Konkret betyr det at du som bruger oftere får:

Det er ikke AI-en som "gir opp". Det er AI-en som er instruert til å skille mellom "dette vet jeg sikkert" og "dette er jeg usikker på". Det skillet er det som skiller en brukbar juridisk AI fra en farlig.

Lag 3: Extended thinking — flertrinns-resonnement før svar

LexCodex bruger Anthropic Claudes extended thinking-funksjon. Det betyr at AI-en får resonnere i flere trinn internt før den gir et svar. For juridisk analyse er det avgjørende: en kontraktsklausul kan ha tre ulike retlige effekter afhængig af sammenhæng, og feil-tolkninger opstår oftest når AI-en hopper direkte fra spørgsmål til svar uden mellomliggende analyse.

I praksis vises ikke extended thinking i utdataet — du ser bare det endelige svaret. Men resonnementsprosessen som har ledet dit, er mer rigorøs. For komplekse spørgsmål (compliances-analyse, AI Act-klassifisering) gjør det stor forskjell i kvalitet.

Hva lagene IKKE beskytter mot

La oss være ærlige: de tre lagene minimerer fabrikkerte sitater, men eliminerer dem ikke. Og de beskytter ikke mot alle typer AI-feil.

Spesifikt beskytter de ikke mot:

Det er derfor vi konsekvent skriver "AI-assistert analyse — verificér mot primærkilden før beslutning" i disclaimer-bannere. Det er ikke juridisk dekkmantel — det er en presis beskrivelse af hva værktøjeret gjør.

Hvordan du som jurist verificérer at beskyttelsen fungerer

Test du kan gjøre selv når du evaluerer LexCodex (eller en annen juridisk AI):

  1. Be om praksis på et obskurt spørgsmål. Noe der det trolig ikke finnes publisert praksis. God AI skal si "jeg har ikke konkret praksis på dette" — ikke finne på.
  2. Klikk på alle lenker. Hver sitert kilde må lede til en verificérbar URL — ikke 404, ikke hub-side, men eksakt det dokumentet som siteres.
  3. Still samme spørgsmål med ulike formuleringer. Hvis svaret veksler mellom motsatte anbefalinger, er AI-en usikker — da skal den si det.
  4. Be om tolkning af en kjent doktrine-passasje. Sitater fra anerkjent dansk juridisk litteratur er lette å verificére. AI-en skal enten sitere korrekt eller si "jeg kan ikke gjengi specifikke passasjer".

Sammendrag

Hallusinasjons-prevensjon er ikke en silver bullet — det er et arkitekturspørgsmål. LexCodex tre lag (verificerede primærkilder, instruert usikkerhed, extended thinking) reduserer risikoen markant uden å eliminere den. Resten ligger på deg som bruger: verificér, klikk, kontroller.

For juridisk AI som skal bruges i klientarbeid er hallusinasjons-beskyttelse ikke et "nice-to-have" — det er forutsetningen for at værktøjeret i det hele tatt skal være brukbart. Vi tar det derfor på største alvor.

Hallusinasjons-beskyttelse er ett af de mest undervurderte arkitekturelle spørgsmålene i juridisk AI. For dypere diskusjon om tekniske valg, se vores Security Whitepaper.

Les videre

EU AI Act for jurister — casestudie der LexCodex klassifiserte seg selv · Svenske legal AI 2026 — markedsoversikt

Prøv juridisk research → Tilbake til blogg

⚠ AI-assistert analyse er ikke juridisk rådgivning. Verificér alltid mot primærkilden før beslutning.