GuiderSäkerhet

Hallucinerar din AI?

3 min läsning
Säkerhet
Verktyg i denna lektion:ChatGPTGemini

Lär dig varför AI ibland hittar på saker som låter helt rätt men är helt fel, och hur du skyddar dig.

AI kan ge dig ett svar som låter perfekt, med källor och allt, och ändå vara påhittat. Det kallas en hallucination och det händer oftare än du tror.

Den här lektionen förklarar varför det händer, när risken är som störst och vad du kan göra för att inte gå på det.


Föreställ dig att du ber en kollega ta fram underlaget inför ett viktigt kundmöte. Kollegan levererar ett snyggt dokument med statistik, källhänvisningar och välformulerade argument. Det ser perfekt ut. Problemet? Hälften av siffrorna är påhittade och två av källorna existerar inte.

Det är precis vad som kan hända när du använder AI utan att förstå fenomenet hallucinationer.

Vad är en hallucination?

En hallucination uppstår när en AI-modell genererar information som låter trovärdig men som är helt eller delvis felaktig. Det kan handla om:

  • Påhittade fakta - AI anger en statistik som inte finns
  • Falska källor - AI refererar till böcker, artiklar eller studier som aldrig publicerats
  • Felaktiga samband - AI kopplar ihop saker som inte hör ihop
  • Förvrängda citat - AI tillskriver uttalanden till personer som aldrig sagt dem

Det händer för att språkmodeller inte "vet" saker. De förutsäger nästa ord baserat på mönster i sin träningsdata. Ibland skapar de mönster som ser rätt ut men som inte stämmer med verkligheten.

Verkliga exempel

Det här är inte teoretiskt. Det har redan fått allvarliga konsekvenser:

  • En advokat i New York använde ChatGPT för att ta fram juridiska prejudikat. AI:n hittade på sex rättsfall som aldrig existerat, komplett med domstolsnamn och referensnummer. Advokaten fick böter.
  • En student lämnade in en uppsats med AI-genererade referenser. Flera av källorna existerade inte. Studenten fick underkänt.
  • Ett svenskt företag publicerade en rapport med AI-genererad marknadsdata. Siffrorna visade sig vara felaktiga och företaget fick korrigera offentligt.

Varför hallucinerar AI?

Det finns flera orsaker:

  1. Luckor i träningsdata - om modellen inte har tillräckligt med information om ett ämne, fyller den i med kvalificerade gissningar
  2. Statistiska mönster - modellen väljer ord som "passar" statistiskt, inte ord som är sanna
  3. Ingen faktakontroll - AI har ingen inbyggd mekanism för att verifiera sina påståenden
  4. Övertro på formulering - modellen prioriterar att svaret låter bra framför att det är korrekt

Ämnen med hög risk

Vissa ämnen är mer utsatta för hallucinationer:

  • Juridik - lagar, paragrafer och rättsfall
  • Medicinsk information - symtom, diagnoser, dosering
  • Statistik och siffror - procenttal, befolkningsdata, ekonomiska prognoser
  • Historiska detaljer - datum, namn, händelseförlopp
  • Lokala fakta - svenska organisationer, mindre kända personer, regionala förhållanden

Viktigt: Ju mer nischat eller specifikt ett ämne är, desto större risk för hallucinationer. AI är bäst på allmän kunskap och sämre på detaljer.

Så skyddar du dig

Här är fem konkreta strategier du kan börja använda direkt:

1. Verifiera alltid viktiga påståenden

Kopiera nyckelfakta och sök efter dem. Om du inte hittar bekräftelse, lita inte på dem.

2. Be AI visa sina källor

Från och med 2025 kan både ChatGPT och Gemini söka på webben och visa källhänvisningar. Använd den funktionen och klicka på länkarna.

3. Använd rätt verktyg för rätt uppgift

För faktabaserade frågor, använd AI:ns sökfunktion. För kreativa uppgifter spelar hallucinationer mindre roll.

4. Ställ kontrollfrågor

Om AI ger dig statistik, fråga: "Var kommer den siffran ifrån? Kan du ge mig en länk till originalkällan?"

5. Känn igen varningstecken

Vara misstänksam mot svar som är "för perfekta", med exakt rätt statistik för varje argument.

Prompt: "Ge mig tre vanliga myter om svensk arbetsrätt. Ange för varje myt vilken källa du baserar ditt svar på, och flagga om du är osäker på något."

Sammanfattning

  • Hallucinationer är AI:s största svaghet, inte en bugg utan en grundläggande egenskap
  • Ju mer specifikt ämnet är, desto större risk för felaktig information
  • Behandla AI-svar som utkast från en smart men opålitlig praktikant
  • Verifiera alltid fakta som ska användas i viktiga sammanhang
Senast uppdaterad: 6 april 2026

Nästa steg

Fortsätt i kursen AI-säkerhet och etik

Den här guiden ger dig en första vinst. Kursen ger dig fler exempel, bättre omdöme och något du kan återanvända varje dag.