OpenAI har publicerat en ny forskningsrapport som försöker förklara varför stora språkmodeller ibland ”hallucinerar” – alltså hittar på svar istället för att erkänna att de inte vet. Företaget menar att problemet ligger i hur algoritmerna belönas när de gissar.
Just nu läser andra
När AI hellre gissar än erkänner okunskap
Fenomenet kallas hallucinationer och uppstår när språkmodeller, som används för att träna chattbotar, väljer att lämna ett svar även när de är osäkra. I stället för att skriva ”jag vet inte” gissar modellen – eftersom det ger bättre resultat i de system den tränas på.
Forskarna bakom rapporten beskriver det som ett klassificeringsfel. LLM:er (Large Language Models) tvingas alltid välja mellan alternativ, och även en osäker gissning blir ett slags ”rätt” beteende.
Jämförelsen med provsituationer
OpenAI jämför beteendet med elever på ett prov. Den som chansar på ett flervalsfråga kan få rätt och därmed poäng, medan en tom ruta ger noll. Samma sak gäller för AI-modeller: de får poäng för rätt svar men inget för att lämna tomt eller säga att de inte vet, skriver Euro News.
Det gör att modellen tränas att hellre gissa än att vara ärlig, även när svaret riskerar att bli fel.
GPT-5 – påstås vara mer ”sanningsenlig”
Rapporten släpptes bara veckor efter att OpenAI presenterade GPT-5, företagets nya flaggskeppsmodell som påstås ha 46 procent färre fel än föregångaren GPT-4o.
Läs också
Men bilden är inte helt enkel. En studie från amerikanska NewsGuard visar att ChatGPT-modeller fortfarande sprider falska uppgifter i omkring 40 procent av sina svar.
Vissa frågor kan AI aldrig besvara
Enligt OpenAI är problemet delvis inbyggt i tekniken. Språkmodeller tränas genom att förutspå nästa ord i enorma mängder text, och för många ämnen finns tydliga regler – till exempel stavning eller grammatik.
Men på mer komplexa områden, där informationen är tvetydig eller ofullständig, blir det betydligt svårare. I vissa fall är frågorna helt enkelt omöjliga för en AI att svara korrekt på.