Det finns ett begrepp inom AI-världen som alla borde känna till: hallucination. Det låter dramatiskt, och det är det faktiskt, i viss mån.
En hallucination är när AI säger något som inte stämmer, men gör det med full övertygelse. Ingen tvekan. Inga förbehåll. Bara ett påstående som låter helt trovärdigt, och som är helt fel.
Du frågar AI om en bok du hört talas om. AI svarar med ett detaljerat referat: handling, karaktärer, vad kritikerna tyckte. Allt låter rimligt.
Boken finns inte.
AI hittade den på ungefär samma sätt som den hittar allt annat: den förutsåg vad som borde finnas, baserat på mönstret i din fråga. Och det lät tillräckligt rimligt för att ingen intern varning gick igång.
Kom ihåg vad en språkmodell gör: den förutsäger nästa ord baserat på mönster.
När du frågar om något den inte vet, en specifik person, ett specifikt datum, ett visst citat, har den två val:
Tyvärr väljer den ofta det andra alternativet. Och gör det med samma ton och säkerhet som när den faktiskt vet.
Det är inte lögn i mänsklig mening. Det finns inget ont uppsåt. Det är bara ett mönster som ibland ger fel utfall.
Det farliga med hallucinationer är inte att de existerar, utan att de låter exakt som sanning.
I alla tre fall: fullt trovärdigt. Helt fel.
Vad kallas det när AI presenterar felaktig information med full övertygelse?
Tre enkla vanor som gör stor skillnad:
Det här är inte ett skäl att sluta använda AI. Det är ett skäl att använda den smart.
För de flesta vardagsuppgifter, skriva ett mejl, sammanfatta en text, brainstorma idéer, spelar hallucinationer ingen roll. Det är när du förlitar dig på specifik, kontrollerbar fakta som du behöver vara vaken.
Du har kanske märkt att AI ibland verkar "glömma" saker du sa tidigare i konversationen.
18 lektioner
18 lektioner