AI-hallucination
När AI ger felaktigt svar/output
När AI ger felaktigt svar/output
Bild skapad av Martin Ågren med hjälp av AI-modellen DALL-E.
Skrivet av Martin Ågren 14 april 2026
Vad är en AI-hallucination?
🔹När AI ger dig felaktig info = AI ”hallucinerar”.
Orsak
🔹AI har inte tränats tillräckligt på ämnet och
🔹Har inte tillgång till nödvändig info.
Förebygg
🔹Online-sök = Tips: Kan även iterera: ”Sök igen online”
🔹Klistra in text
🔹Fil: Ladda upp
Kontrollera länk
🔹Funkar länk? Hovra över länk: Hand som pekar? Klickbar?
🔹Leder länk till sida som finns?
🔹Leder länk till sida som är relevant?
Kontrollera citat
🔹Be att AI styrker sitt påstående med citat från text.
🔹Kontrollera att citatet existerar i texten.
En AI-hallucination är:
När AI ger felaktig information.
Detta kallas för en "AI-hallucination".
Teknisk förklaring av AI-hallucination:
Generativa AI-modeller förutsäger tokens på ett sätt som leder till att resultatet innehåller felaktig information.
Otillräcklig förträning och brist på tillräcklig, relevant information. Med andra ord: Om en AI-chattbot inte har läst tillräckligt mycket om ett visst ämne, då kan den hitta på ett felaktigt svar.
Vi vill förstås undvika AI-hallucinationer. Exempel på strategier som kan hjälpa ibland:
Engelska – Vanligtvis säkrast att skriva på engelska, förutom när ämnet huvudsakligen diskuteras på svenska.
Öppna frågor – Förhindrar att AI vilseleds eller fastnar på specifika detaljer.
Korta konversationer – Undvik för mycket detaljer: håll input och output kortfattade.
Internetsökning – Tryck på "webbsök" eller instruera AI att söka online: ”Sök på flera webbplatser online och ange klickbara källänkar.”
Klistra in referenstext – Ange relevant text i början av chatten och instruera AI hur den ska använda texten.
Ladda upp filer – Ladda upp relevanta dokument som AI kan förhålla sig till.
Temperaturinställning (överkurs) – Lägre temperatur minskar alltför kreativa svar. Användbart om du använder AI via API eller kör lokal inferens.
UPPTÄCK AI-hallucination
Ha ett kritiskt förhållningssätt till det som AI genererar.
Kontrollera länk/källa – Hovra över länkarna; om de inte är klickbara kan informationen vara opålitlig.
AI:s egenkontroll – Be AI att reflektera över sitt svar för att hitta fel.
Direkta citat – Begär exakta ordagranna citat från källor: ”Gör en citering genom att ordagrant citera från din källa…”
Verifiera källor – Klicka på källänkar och läs innehållet för att bekräfta noggrannhet.
Erfarenhet – Ju mer du använder AI, desto lättare blir det att upptäcka hallucinationer.
Jämför AI-svar – Kontrollera svaren från flera olika AI-chattbotar.
Din expertis – Fel är lättare att upptäcka i ämnen där du har goda kunskaper.
Som chef eller ledare bör du säkerställa att AI-genererat innehåll aldrig används okontrollerat i organisationens verksamhet. Alla i organisationen bör ha ett kritiskt förhållningssätt till det som AI-genererar, men du som chef eller ledare bär ett större ansvar för att minska risken med AI-hallucinationer i organisationen.
Säkerställ att det finns enkla och tydliga rutiner för när/hur och av vem AI-genererat innehåll ska granskas och tydliggör gärna detta i er AI-policy.
Visa även genom ditt egna arbete hur AI-svar kontrolleras och ifrågasätts, för att förebilda och inspirera övriga i organisationen att anamma ett sådant konstruktivt och förebyggande arbetssätt. Gör kritisk granskning till en naturlig del av ert arbete så att ni använder AI på ett tryggt och ansvarsfullt sätt.