← Blogg

Hvordan LexCodex unngår hallusinasjoner — verifiserte sitater og primærkilder

Publisert 4. mai 2026 · 7 minutters lesetid · Av GD · LexCodex

Hallusinasjoner er den enkeltstående største risikoen med generativ AI for juridisk arbeid. Når en LLM finner på en rettsavgjørelse som ikke finnes, siterer feil paragraf eller fabrikker en dommers navn — og presenterer det med høy konfidens — kan konsekvensen i verste fall bli en advokat som leverer inn en stevning med oppdiktede prejudikater.

Det har allerede skjedd. I New York 2023 fikk advokat Steven Schwartz sanksjoner etter å ha sitert seks fabrikkerte ChatGPT-rettsavgjørelser i en klage mot Avianca Airlines. Lignende hendelser har siden blitt rapportert fra Storbritannia, Australia, Canada og Sverige.

For juridisk AI er troverdighet binær: én hallusinert referanse av hundre er hundre ganger verre enn ingen referanse i det hele tatt, fordi brukeren ikke kan vite hvilken som er hvilken. Denne artikkelen forklarer hvordan LexCodex er bygget for å minimere den risikoen.

Hva er en hallusinasjon — i praksis?

Hallusinasjoner i LLM-sammenheng er ikke tilfeldige feil. De er statistisk plausible, men faktisk falske resultater. Modellen produserer tekst som ligner virkelige rettsavgjørelser — riktig format på sitatet, plausible dommernavn, rimelig år — men der den faktiske avgjørelsen ikke eksisterer.

Tre vanlige klasser av hallusinasjon i juridisk AI:

  1. Fabrikkerte rettsavgjørelser: "Rt. 2018 s. 423" som ikke finnes, eller der nummeret er riktig, men sakens innhold er feil
  2. Feilaktige paragrafhenvisninger: AI-en henviser til "avtaleloven § 36 annet ledd" der paragrafen finnes, men leddet ikke er anvendelig
  3. Oppdiktede sitater fra doktrine: Sitater fra norsk litteratur som høres rimelige ut, men som ingen forfatter faktisk har skrevet

Den underliggende årsaken: LLM-er er ikke databaser. De er probabilistiske språkmodeller. Når du spør en ren LLM om norsk skadeerstatningsrett, får du den mest sannsynlige sekvensen ord basert på treningsdataen — ikke søkeresultater fra en verifisert rettskilde.

LexCodex tre-lags beskyttelse

For å håndtere dette bruker LexCodex tre komplementære teknikker. Ingen av dem er nok alene — kombinasjonen er poenget.

Lag 1: Hver juridisk påstand er bundet til en verifisert primærkilde

Når LexCodex genererer en analyse, henviser hver juridisk påstand til en spesifikk URL i en verifisert primærkilde. URL-mønstrene er forhåndsdefinerte i koden — AI-en kan ikke selv finne på en URL uten at den matcher et verifisert mønster.

LovdataNorsk lovgivning + forskrifter
StortingetProposisjoner, NOU, innstillinger
Regjeringen.noNOU-er + offentlige utredninger
Høyesterett41 kuraterte landemerker
DatatilsynetNorsk GDPR-tilsyn
SivilombudetForvaltningsrettslig kontroll
Finanstilsynet10 tilsynsområder
KonkurransetilsynetKonkurranseavgjørelser
EUR-LexEU/EØS-rett
lagen.nuSvensk lovgivning
Sveriges DomstolarSvenske rettsavgjørelser
RiksdagenSvenske proposisjoner

Når du klikker på en sitert kilde, lander du direkte på Lovdata eller Stortinget — ikke på en LexCodex-cachet versjon. Du verifiserer selv mot original. Ingen mellomledd der hallusinasjoner kan snike seg inn.

Lag 2: Instruert usikkerhet — "si heller 'jeg vet ikke'"

System-prompten som styrer AI-en, inneholder eksplisitte instruksjoner: når modellen er usikker, skal den heller si "jeg er usikker, konsulter primærkilden" enn å fabrikkere en referanse. Det går mot LLM-ers default-atferd, som er å produsere flytende tekst selv når underlaget er tynt.

Konkret betyr det at du som bruker oftere får:

Det er ikke AI-en som "gir opp". Det er AI-en som er instruert til å skille mellom "dette vet jeg sikkert" og "dette er jeg usikker på". Det skillet er det som skiller en brukbar juridisk AI fra en farlig.

Lag 3: Extended thinking — flertrinns-resonnement før svar

LexCodex bruker Anthropic Claudes extended thinking-funksjon. Det betyr at AI-en får resonnere i flere trinn internt før den gir et svar. For juridisk analyse er det avgjørende: en kontraktsklausul kan ha tre ulike rettslige effekter avhengig av sammenheng, og feil-tolkninger oppstår oftest når AI-en hopper direkte fra spørsmål til svar uten mellomliggende analyse.

I praksis vises ikke extended thinking i utdataet — du ser bare det endelige svaret. Men resonnementsprosessen som har ledet dit, er mer rigorøs. For komplekse spørsmål (etterlevelses-analyse, AI Act-klassifisering) gjør det stor forskjell i kvalitet.

Hva lagene IKKE beskytter mot

La oss være ærlige: de tre lagene minimerer fabrikkerte sitater, men eliminerer dem ikke. Og de beskytter ikke mot alle typer AI-feil.

Spesifikt beskytter de ikke mot:

Det er derfor vi konsekvent skriver "AI-assistert analyse — verifiser mot primærkilden før beslutning" i disclaimer-bannere. Det er ikke juridisk dekkmantel — det er en presis beskrivelse av hva verktøyet gjør.

Hvordan du som jurist verifiserer at beskyttelsen fungerer

Test du kan gjøre selv når du evaluerer LexCodex (eller en annen juridisk AI):

  1. Be om praksis på et obskurt spørsmål. Noe der det trolig ikke finnes publisert praksis. God AI skal si "jeg har ikke konkret praksis på dette" — ikke finne på.
  2. Klikk på alle lenker. Hver sitert kilde må lede til en verifiserbar URL — ikke 404, ikke hub-side, men eksakt det dokumentet som siteres.
  3. Still samme spørsmål med ulike formuleringer. Hvis svaret veksler mellom motsatte anbefalinger, er AI-en usikker — da skal den si det.
  4. Be om tolkning av en kjent doktrine-passasje. Sitater fra anerkjent norsk juridisk litteratur er lette å verifisere. AI-en skal enten sitere korrekt eller si "jeg kan ikke gjengi spesifikke passasjer".

Sammendrag

Hallusinasjons-prevensjon er ikke en silver bullet — det er et arkitekturspørsmål. LexCodex tre lag (verifiserte primærkilder, instruert usikkerhet, extended thinking) reduserer risikoen markant uten å eliminere den. Resten ligger på deg som bruker: verifiser, klikk, kontroller.

For juridisk AI som skal brukes i klientarbeid er hallusinasjons-beskyttelse ikke et "nice-to-have" — det er forutsetningen for at verktøyet i det hele tatt skal være brukbart. Vi tar det derfor på største alvor.

Vil du teste selv? Opprett en gratis konto — 3 analyser per måned permanent, ingen kortinformasjon. Prøv med dine egne spørsmål og evaluer referansene.

Les videre

EU AI Act for jurister — casestudie der LexCodex klassifiserte seg selv · Svenske legal AI 2026 — markedsoversikt

Prøv juridisk research → Tilbake til blogg

⚠ AI-assistert analyse er ikke juridisk rådgivning. Verifiser alltid mot primærkilden før beslutning.