Vad får du lägga in i ChatGPT? En snabbguide

Grundaren av Snabbprompt

Av grundaren av Snabbprompt

Jobbat med AI sedan 2019 · Uppdaterad april 2026

3 min läsning
Lektion 1 av 15

Den här lektionen är en del av kursen AI-säkerhet och etik (15 lektioner). Du läser den helt gratis.

Passar dig som Alla som använder AI på jobbet eller privat och vill veta vad som är okej att dela

Verktyg i denna lektion:ChatGPTGemini

Det här lär du dig

Tre enkla regler för vad du kan, bör tänka efter om, och aldrig ska dela med ett AI-verktyg.

Du vill använda AI på jobbet – men du är osäker på vad du egentligen får lägga in. Är det okej att klistra in ett mejl? En rapport? Patientuppgifter? Löneuppgifter?

Det korta svaret: det beror på. Men det finns tre tumregler som täcker de flesta situationer.

Hur AI hanterar det du skriver

Först: det är bra att förstå vad som händer tekniskt. När du skriver i ChatGPT, Claude eller Gemini skickas din text till en server utanför Sverige. Det är som att mejla en assistent i ett annat land – du bör inte inkludera något du inte hade mejlat till en extern person.

Gratisversioner av AI-verktyg kan dessutom använda dina konversationer för att förbättra sina modeller. Det innebär att det du skriver kan bli del av träningsdata. Betalversioner har ofta tydligare dataskydd, men grundprincipen kvarstår: behandla alla AI-verktyg som öppna kanaler.

✅ Det här kan du lägga in utan tvekan

  • Allmänna frågor och idéer som inte innehåller personuppgifter
  • Texter du själv skrivit som inte nämner specifika, identifierbara personer
  • Offentlig information som redan är publik (lagar, produktbeskrivningar, nyhetsartiklar)
  • Utkast till mejl där du tagit bort namn och känsliga detaljer

Tumregeln: Om du hade kunnat säga det högt på en buss utan konsekvenser – då kan du lägga in det i en AI.

⚠️ Tänk efter först

  • Interna dokument som inte är hemliga men inte heller publika – ta bort namn, datum och specifika detaljer innan du klistrar in
  • Mejltrådar med kollegor – anonymisera först (byt "Anna Svensson" mot "Kollega A")
  • Arbetsuppgifter som nämner kunder – byt ut riktiga namn mot "Kund A" och "Kund B"
  • Löneuppgifter eller budgetar – ta bort belopp och personnummer

Tumregeln: Om du inte hade lämnat det på en lapp i fikarummet – anonymisera innan du klistrar in det.

❌ Gör aldrig det här

  • Personnummer, adresser eller andra direkta personuppgifter
  • Patientjournaler eller patientdata (även om du tror att du anonymiserat – var extra försiktig inom vård)
  • Lösenord, bankuppgifter eller inloggningsuppgifter
  • Affärshemligheter eller sekretessbelagt material
  • Uppgifter som omfattas av sekretesslagen

Tumregeln: Om det finns en lag som säger att du inte får sprida det – lägg aldrig in det.

Vad säger din arbetsgivare?

Allt fler svenska arbetsgivare tar fram riktlinjer för AI-användning. Innan du börjar använda AI på jobbet:

  1. Fråga din chef eller IT-avdelning om det finns en AI-policy.
  2. Om det inte finns en policy – föreslå att en tas fram. Det visar initiativ, inte osäkerhet.
  3. Om du arbetar inom vård, myndighet eller skola gäller ofta strängare regler för personuppgifter. Kolla med dataskyddsombudet.

Prova själv

Nästa gång du ska klistra in något i ChatGPT, stanna upp en sekund och ställ dig frågan: "Hade jag lämnat det här på en lapp i fikarummet?" Om svaret är nej – anonymisera först.


Vill du gå vidare?

Den här lektionen ger dig grunderna. I AI, säkerhet och etik lär du dig om företagspolicyer, säkerhetsinställningar i specifika verktyg, EU:s nya AI-förordning och hur du skyddar dig och dina kollegor.

Jobbar du inom vården? AI för sjukvård har ett helt avsnitt om dokumentation och datasäkerhet anpassat för klinisk vardag.


Föreställ dig att du ber en kollega ta fram underlaget inför ett viktigt kundmöte. Kollegan levererar ett snyggt dokument med statistik, källhänvisningar och välformulerade argument. Det ser perfekt ut. Problemet? Hälften av siffrorna är påhittade och två av källorna existerar inte.

Det är precis vad som kan hända när du använder AI utan att förstå fenomenet hallucinationer.

Vad är en hallucination?

En hallucination uppstår när en AI-modell genererar information som låter trovärdig men som är helt eller delvis felaktig. Det kan handla om:

  • Påhittade fakta - AI anger en statistik som inte finns
  • Falska källor - AI refererar till böcker, artiklar eller studier som aldrig publicerats
  • Felaktiga samband - AI kopplar ihop saker som inte hör ihop
  • Förvrängda citat - AI tillskriver uttalanden till personer som aldrig sagt dem

Det händer för att språkmodeller inte "vet" saker. De förutsäger nästa ord baserat på mönster i sin träningsdata. Ibland skapar de mönster som ser rätt ut men som inte stämmer med verkligheten.

Verkliga exempel

Det här är inte teoretiskt. Det har redan fått allvarliga konsekvenser:

  • En advokat i New York använde ChatGPT för att ta fram juridiska prejudikat. AI:n hittade på sex rättsfall som aldrig existerat, komplett med domstolsnamn och referensnummer. Advokaten fick böter.
  • En student lämnade in en uppsats med AI-genererade referenser. Flera av källorna existerade inte. Studenten fick underkänt.
  • Ett svenskt företag publicerade en rapport med AI-genererad marknadsdata. Siffrorna visade sig vara felaktiga och företaget fick korrigera offentligt.

Varför hallucinerar AI?

Det finns flera orsaker:

  1. Luckor i träningsdata - om modellen inte har tillräckligt med information om ett ämne, fyller den i med kvalificerade gissningar
  2. Statistiska mönster - modellen väljer ord som "passar" statistiskt, inte ord som är sanna
  3. Ingen faktakontroll - AI har ingen inbyggd mekanism för att verifiera sina påståenden
  4. Övertro på formulering - modellen prioriterar att svaret låter bra framför att det är korrekt

Ämnen med hög risk

Vissa ämnen är mer utsatta för hallucinationer:

  • Juridik - lagar, paragrafer och rättsfall
  • Medicinsk information - symtom, diagnoser, dosering
  • Statistik och siffror - procenttal, befolkningsdata, ekonomiska prognoser
  • Historiska detaljer - datum, namn, händelseförlopp
  • Lokala fakta - svenska organisationer, mindre kända personer, regionala förhållanden

Viktigt: Ju mer nischat eller specifikt ett ämne är, desto större risk för hallucinationer. AI är bäst på allmän kunskap och sämre på detaljer.

Så skyddar du dig

Här är fem konkreta strategier du kan börja använda direkt:

1. Verifiera alltid viktiga påståenden

Kopiera nyckelfakta och sök efter dem. Om du inte hittar bekräftelse, lita inte på dem.

2. Be AI visa sina källor

Från och med 2025 kan både ChatGPT och Gemini söka på webben och visa källhänvisningar. Använd den funktionen och klicka på länkarna.

3. Använd rätt verktyg för rätt uppgift

För faktabaserade frågor, använd AI:ns sökfunktion. För kreativa uppgifter spelar hallucinationer mindre roll.

4. Ställ kontrollfrågor

Om AI ger dig statistik, fråga: "Var kommer den siffran ifrån? Kan du ge mig en länk till originalkällan?"

5. Känn igen varningstecken

Vara misstänksam mot svar som är "för perfekta", med exakt rätt statistik för varje argument.

Prompt: "Ge mig tre vanliga myter om svensk arbetsrätt. Ange för varje myt vilken källa du baserar ditt svar på, och flagga om du är osäker på något."

Sammanfattning

  • Hallucinationer är AI:s största svaghet, inte en bugg utan en grundläggande egenskap
  • Ju mer specifikt ämnet är, desto större risk för felaktig information
  • Behandla AI-svar som utkast från en smart men opålitlig praktikant
  • Verifiera alltid fakta som ska användas i viktiga sammanhang

Avklarat

Du har just lärt dig: vad får du lägga in i chatgpt? en snabbguide

Det tog 3 minuter. Den här kunskapen är din att behålla.

Vill du fortsätta?

Kursen AI-säkerhet och etik har 14 lektioner till

Du har tumreglerna. Men vad händer om du råkar dela för mycket – och vad säger EU:s AI-förordning om ditt personliga ansvar som anställd? Kursen reder ut det en gång för alla.