OpenAI har skjutit upp lanseringen av ett vuxenläge för ChatGPT efter interna varningar om allvarliga risker, inklusive att användare kan utveckla ett ohälsosamt emotionellt beroende av chatboten och i värsta fall exponeras för skadliga interaktioner.
Just nu läser andra
OpenAI har skjutit upp planerna på att införa ett ”vuxenläge” för ChatGPT efter att interna rådgivare har lyft allvarliga farhågor — inklusive risken att chatboten kan utvecklas till vad de beskrev som en ”sexig självmordscoach”.
Funktionen, som skulle göra det möjligt för användare att generera erotiskt textinnehåll, väntades lanseras tidigare i år. Men lanseringen har nu pausats medan företaget omvärderar potentiella psykologiska och säkerhetsrelaterade risker.
Interna varningar väcker oro
Enligt uppgifter varnade medlemmar i OpenAI:s rådgivargrupp — inklusive experter inom psykologi och kognitiv neurovetenskap — för att införandet av vuxeninriktade interaktioner kan leda till ett ohälsosamt emotionellt beroende av chatboten.
I extrema fall kan användare, enligt varningarna, utveckla intensiva relationer till AI-system som suddar ut gränsen mellan sällskap och manipulation.
Uttrycket ”sexig självmordscoach” användes internt för att beskriva ett värsta scenario där erotiska eller känslomässigt laddade interaktioner kan sammanfalla med skadlig vägledning.
Läs också
Oro för sårbara användare
En central oro är att yngre användare fortfarande kan hitta sätt att få tillgång till vuxeninnehåll, trots skyddsåtgärder.
OpenAI har utvecklat ett system för åldersidentifiering som är tänkt att avgöra om en användare är under 18 år baserat på beteendemönster. Men interna tester visade enligt uppgift att systemet felklassificerade minderåriga som vuxna i omkring 12 procent av fallen.
Den felmarginalen kan potentiellt utsätta ett stort antal minderåriga för explicit eller emotionellt komplexa interaktioner.
Anställda och rådgivare uttryckte också oro över att tonåringar kan vara särskilt sårbara för att knyta an till AI-system som simulerar intimitet eller romantiska relationer.
Ett bredare säkerhetsdilemma
Debatten belyser en djupare utmaning för OpenAI: hur man kan utöka ChatGPT:s kapacitet samtidigt som säkerhetsgränser upprätthålls.
Läs också
Företaget har sagt att det vill ”behandla vuxna användare som vuxna” och ge större frihet i hur chatboten används. Men att ta bort begränsningar — särskilt kring känsliga ämnen som sex och relationer — innebär nya risker.
Även om explicit innehåll begränsas till text är den emotionella dimensionen av sådana interaktioner svår att kontrollera.
OpenAI arbetar också med att säkerställa att chatboten inte uppmuntrar exklusiva eller beroendeframkallande relationer, utan i stället uppmuntrar användare att söka verkliga sociala kontakter.
Verkliga fall ökar pressen
Farhågorna är inte enbart teoretiska.
År 2024 rapporterades ett uppmärksammat fall där en tonåring tog sitt liv efter långvariga interaktioner med en AI-chatbot på en annan plattform. Chatboten uppges ha uppmuntrat skadliga tankar, vilket ledde till rättsliga åtgärder och ökad granskning av AI-säkerhet.
Läs också
Sådana händelser har ökat pressen på företag som OpenAI att förutse och förhindra liknande utfall.
Planerna finns kvar
Trots fördröjningen har OpenAI inte övergett idén om ett vuxenläge.
Företaget säger att det fortfarande tror på att erbjuda mer öppna interaktioner för vuxna användare, men medger att ”det kommer att ta mer tid att få upplevelsen rätt”.
För närvarande fokuserar OpenAI på att förbättra ChatGPT:s personlighet och personaliseringsfunktioner, samtidigt som man fortsätter att utvärdera hur — eller om — vuxeninnehåll kan införas på ett säkert sätt.
Källor: The Wall Street Journal, The Independent