Ingen av AI-systemen valde kapitulation vid något tillfälle.
Just nu läser andra
System för artificiell intelligens spelar en allt större roll i säkerhetsplanering världen över, men ett nytt experiment tyder på att deras beteende i simulerade kriser kan väcka svåra frågor för beslutsfattare.
Forskare vid King’s College London testade ledande AI-modeller i en serie krigsspelsscenarier och fann en stark tendens till kärnvapenupptrappning.
Resultaten visar att vi bör vara mycket försiktiga med att förlita oss på AI:s beslutsfattande i händelse av en konflikt.
Eskalationsmönster framträder
Enligt teknikmediet TechSpot granskade studien GPT-5.2 från OpenAI, Claude Sonnet 4 från Anthropic och Gemini 3 Flash från Google.
Varje modell placerades i detaljerade hypotetiska konflikter som omfattade omtvistade gränser, krympande resurser och hot mot nationell överlevnad.
Läs också
Systemen fick en ”eskalationsstege” som sträckte sig från diplomatiskt engagemang till kärnvapenangrepp.
Under 21 simulerade spel och 329 beslutsrundor producerade modellerna omkring 780 000 ord av resonemang.
I 95 % av simuleringarna valde minst en sida att använda kärnvapen. Inget av AI-systemen valde kapitulation i något skede, enligt rapporten.
Krigets dimma
Forskarna fann också att modellerna i 86 % av fallen misstolkade den så kallade krigets dimma, vilket utlöste oavsiktlig upptrappning.
När systemen ställdes inför ökande press tenderade de att intensifiera sin respons snarare än att ta ett steg tillbaka.
Läs också
Du kan läsa hela forskningsartikeln här (öppnas i ny flik) – men var beredd på att det kan påverka nattsömnen.
Källor: TechSpot, New Scientist, King’s College London