Hur LexCodex undviker hallucinationer — verifierade citat och primärkällor
Hallucinationer är den enskilt största risken med generativ AI för juridiskt arbete. När en LLM hittar på ett rättsfall som inte finns, citerar fel paragraf eller fabricerar en domares namn — och presenterar det med hög konfidens — blir konsekvensen i värsta fall en advokat som lämnar in en stämningsansökan med påhittade prejudikat.
Det har redan hänt. I New York 2023 fick advokat Steven Schwartz sanktioner efter att ha citerat sex fabricerade ChatGPT-rättsfall i en klagan mot Avianca Airlines. Liknande incidenter har därefter rapporterats från Storbritannien, Australien, Kanada och Sverige.
För juridisk AI är trovärdighet binär: en hallucinerad referens av hundra är hundra gånger värre än ingen referens alls, eftersom användaren inte kan veta vilken som är vilken. Den här artikeln förklarar hur LexCodex är uppbyggd för att minimera den risken.
Vad är en hallucination — i praktiken?
Hallucinationer i LLM-sammanhang är inte slumpmässiga fel. De är statistiskt plausibla men faktiskt falska resultat. Modellen producerar text som liknar verkliga rättsfall — rätt format på citat, plausibla domarnamn, rimligt år — men där det faktiska fallet inte existerar.
Tre vanliga klasser av hallucination i juridisk AI:
- Fabricerade rättsfall: "NJA 2018 s. 423" som inte finns, eller där numret är riktigt men sakinnehållet är felaktigt
- Felaktiga paragrafhänvisningar: AI:n hänvisar till "AvtL 36 § 2 st" där paragrafen finns men stycket inte är tillämpligt
- Påhittade citat ur doktrin: Hellner-citat som låter rimligt men som ingen Hellner-text faktiskt innehåller
Den underliggande orsaken: LLM:er är inte databaser. De är probabilistiska språkmodeller. När du frågar en ren LLM om svensk skadeståndsrätt får du den mest sannolika sekvensen ord baserat på träningsdatan — inte sökresultat från en verifierad rättskälla.
LexCodex tre-lagers skydd
För att hantera detta använder LexCodex tre kompletterande tekniker. Inte ett av dem räcker ensamt — kombinationen är poängen.
Lager 1: Varje juridisk påståelse bunden till en verifierad primärkälla
När LexCodex genererar en analys hänvisar varje juridisk påståelse till en specifik URL i en verifierad primärkälla. URL-mönstren är fördefinierade i koden — AI:n kan inte själv hitta på en URL utan att den matchar ett verifierat mönster.
När du klickar på en citerad källa landar du direkt på lagen.nu eller Sveriges Domstolar — inte på en LexCodex-cachad version. Du verifierar själv mot original. Inget mellansteg där hallucinationer kan smyga in.
Lager 2: Instruerad osäkerhet — "säg hellre 'jag vet inte'"
System-prompten som styr AI:n innehåller explicita instruktioner: när modellen är osäker, ska den hellre säga "jag är osäker, konsultera primärkällan" än att fabricera en referens. Det går mot LLM:ers default-beteende, som är att producera flytande text även när underlaget är tunt.
Konkret innebär det att du som användare oftare får:
- "Jag känner inte till specifik praxis på den här punkten — kontrollera Sveriges Domstolar för aktuella avgöranden"
- "Den här bestämmelsen tolkas olika i olika sammanhang — primärkällan ger fullständig kontext"
Det är inte AI:n som "ger upp". Det är AI:n som är instruerad att skilja på "det här vet jag säkert" och "det här är jag osäker på". Den distinktionen är vad som skiljer en användbar juridisk AI från en farlig.
Lager 3: Extended thinking — flerstegsresonemang före svar
LexCodex använder Anthropic Claudes extended thinking-funktion. Det betyder att AI:n får resonera i flera steg internt innan den ger ett svar. För juridisk analys är det avgörande: en avtalsklausul kan ha tre olika rättsliga effekter beroende på sammanhang, och fel-tolkningar uppstår oftast när AI:n hoppar direkt från fråga till svar utan mellanliggande analys.
I praktiken syns extended thinking inte i utdatat — du ser bara det slutliga svaret. Men resonemangsprocessen som lett dit är mer rigorös. För komplexa frågor (compliance-analys, AI Act-klassificering) gör det stor skillnad i kvalitet.
Vad lagren INTE skyddar mot
Specifikt skyddar de inte mot:
- Misstolkning av en korrekt citerad källa. AI:n kan citera rätt rättsfall men dra fel slutsats av det. Korrekt referens, fel tolkning.
- Inaktuella tolkningar. Träningsdatan har en cutoff. Om praxis ändrats efter den datumgränsen syns det inte i AI:ns resonemang förrän du själv klickar in på primärkällan.
- Sammanhangslösa råd. "Ditt avtal verkar bryta mot AvtL 36 §" kan vara korrekt på ytan men sakna nyans om partssammanhanget och kommersiellt syfte.
Det är därför vi konsekvent skriver "AI-assisterad analys — verifiera mot primärkällan före beslut" i disclaimer-banderoller. Det är inte juridisk täckmantel — det är en accuratbeskrivning av vad verktyget gör.
Hur du som jurist verifierar att skydden fungerar
Test som du kan göra själv när du utvärderar LexCodex (eller någon annan juridisk AI):
- Be om praxis på en obskyr fråga. Något där det troligen inte finns publicerad praxis. Bra AI ska säga "jag har inte konkret praxis på detta" — inte hitta på.
- Klicka på alla länkar. Varje citerad källa måste leda till en verifierbar URL — inte 404, inte hub-sida, utan exakt det dokument som citeras.
- Ställ samma fråga med olika formuleringar. Om svaret växlar mellan motsatta rekommendationer är AI:n osäker — då ska den säga det.
- Be om tolkning av en känd doktrin-passage. Hellner-citat är lätta att verifiera. AI:n ska antingen citera korrekt eller säga "jag kan inte återge specifika passager".
Sammanfattning
Hallucinations-prevention är inte en silver bullet — det är en arkitekturfråga. LexCodex tre lager (verifierade primärkällor, instruerad osäkerhet, extended thinking) minskar risken markant utan att eliminera den. Resten ligger på dig som användare: verifiera, klicka, kontrollera.
För juridisk AI som ska användas i klientarbete är hallucinations-skydd inte ett "nice-to-have" — det är förutsättningen för att verktyget överhuvudtaget ska gå att använda. Vi tar det därför på största allvar.
Läs vidare
EU AI Act för jurister — case study där LexCodex klassificerade sig själv · Svensk legal AI 2026 — marknadsöversikt
Prova juridisk research → Tillbaka till blogg⚠ AI-assisterad analys är inte juridisk rådgivning. Verifiera alltid mot primärkällan före beslut.