Föreställ dig att du ber en kollega ta fram underlaget inför ett viktigt kundmöte. Kollegan levererar ett snyggt dokument med statistik, källhänvisningar och välformulerade argument. Det ser perfekt ut. Problemet? Hälften av siffrorna är påhittade och två av källorna existerar inte.
Det är precis vad som kan hända när du använder AI utan att förstå fenomenet hallucinationer.
Vad är en hallucination?
En hallucination uppstår när en AI-modell genererar information som låter trovärdig men som är helt eller delvis felaktig. Det kan handla om:
- Påhittade fakta - AI anger en statistik som inte finns
- Falska källor - AI refererar till böcker, artiklar eller studier som aldrig publicerats
- Felaktiga samband - AI kopplar ihop saker som inte hör ihop
- Förvrängda citat - AI tillskriver uttalanden till personer som aldrig sagt dem
Det händer för att språkmodeller inte "vet" saker. De förutsäger nästa ord baserat på mönster i sin träningsdata. Ibland skapar de mönster som ser rätt ut men som inte stämmer med verkligheten.
Verkliga exempel
Det här är inte teoretiskt. Det har redan fått allvarliga konsekvenser:
- En advokat i New York använde ChatGPT för att ta fram juridiska prejudikat. AI:n hittade på sex rättsfall som aldrig existerat, komplett med domstolsnamn och referensnummer. Advokaten fick böter.
- En student lämnade in en uppsats med AI-genererade referenser. Flera av källorna existerade inte. Studenten fick underkänt.
- Ett svenskt företag publicerade en rapport med AI-genererad marknadsdata. Siffrorna visade sig vara felaktiga och företaget fick korrigera offentligt.
Varför hallucinerar AI?
Det finns flera orsaker:
- Luckor i träningsdata - om modellen inte har tillräckligt med information om ett ämne, fyller den i med kvalificerade gissningar
- Statistiska mönster - modellen väljer ord som "passar" statistiskt, inte ord som är sanna
- Ingen faktakontroll - AI har ingen inbyggd mekanism för att verifiera sina påståenden
- Övertro på formulering - modellen prioriterar att svaret låter bra framför att det är korrekt
Ämnen med hög risk
Vissa ämnen är mer utsatta för hallucinationer:
- Juridik - lagar, paragrafer och rättsfall
- Medicinsk information - symtom, diagnoser, dosering
- Statistik och siffror - procenttal, befolkningsdata, ekonomiska prognoser
- Historiska detaljer - datum, namn, händelseförlopp
- Lokala fakta - svenska organisationer, mindre kända personer, regionala förhållanden
Viktigt: Ju mer nischat eller specifikt ett ämne är, desto större risk för hallucinationer. AI är bäst på allmän kunskap och sämre på detaljer.
Så skyddar du dig
Här är fem konkreta strategier du kan börja använda direkt:
1. Verifiera alltid viktiga påståenden
Kopiera nyckelfakta och sök efter dem. Om du inte hittar bekräftelse, lita inte på dem.
2. Be AI visa sina källor
Från och med 2025 kan både ChatGPT och Gemini söka på webben och visa källhänvisningar. Använd den funktionen och klicka på länkarna.
3. Använd rätt verktyg för rätt uppgift
För faktabaserade frågor, använd AI:ns sökfunktion. För kreativa uppgifter spelar hallucinationer mindre roll.
4. Ställ kontrollfrågor
Om AI ger dig statistik, fråga: "Var kommer den siffran ifrån? Kan du ge mig en länk till originalkällan?"
5. Känn igen varningstecken
Vara misstänksam mot svar som är "för perfekta", med exakt rätt statistik för varje argument.
Prompt: "Ge mig tre vanliga myter om svensk arbetsrätt. Ange för varje myt vilken källa du baserar ditt svar på, och flagga om du är osäker på något."
Sammanfattning
- Hallucinationer är AI:s största svaghet, inte en bugg utan en grundläggande egenskap
- Ju mer specifikt ämnet är, desto större risk för felaktig information
- Behandla AI-svar som utkast från en smart men opålitlig praktikant
- Verifiera alltid fakta som ska användas i viktiga sammanhang