Startsida Nyheter ”Sexig självmordscoach”: OpenAI varnas för risker med vuxenläge i ChatGPT

”Sexig självmordscoach”: OpenAI varnas för risker med vuxenläge i ChatGPT

OpenAI, ChatGPT, Sam Altman
Meir Chaimowitz / Shutterstock.com

OpenAI har skjutit upp lanseringen av ett vuxenläge för ChatGPT efter interna varningar om allvarliga risker, inklusive att användare kan utveckla ett ohälsosamt emotionellt beroende av chatboten och i värsta fall exponeras för skadliga interaktioner.

Just nu läser andra

OpenAI har skjutit upp planerna på att införa ett ”vuxenläge” för ChatGPT efter att interna rådgivare har lyft allvarliga farhågor — inklusive risken att chatboten kan utvecklas till vad de beskrev som en ”sexig självmordscoach”.

Funktionen, som skulle göra det möjligt för användare att generera erotiskt textinnehåll, väntades lanseras tidigare i år. Men lanseringen har nu pausats medan företaget omvärderar potentiella psykologiska och säkerhetsrelaterade risker.

Interna varningar väcker oro

Enligt uppgifter varnade medlemmar i OpenAI:s rådgivargrupp — inklusive experter inom psykologi och kognitiv neurovetenskap — för att införandet av vuxeninriktade interaktioner kan leda till ett ohälsosamt emotionellt beroende av chatboten.

I extrema fall kan användare, enligt varningarna, utveckla intensiva relationer till AI-system som suddar ut gränsen mellan sällskap och manipulation.

Uttrycket ”sexig självmordscoach” användes internt för att beskriva ett värsta scenario där erotiska eller känslomässigt laddade interaktioner kan sammanfalla med skadlig vägledning.

Läs också

Oro för sårbara användare

En central oro är att yngre användare fortfarande kan hitta sätt att få tillgång till vuxeninnehåll, trots skyddsåtgärder.

OpenAI har utvecklat ett system för åldersidentifiering som är tänkt att avgöra om en användare är under 18 år baserat på beteendemönster. Men interna tester visade enligt uppgift att systemet felklassificerade minderåriga som vuxna i omkring 12 procent av fallen.

Den felmarginalen kan potentiellt utsätta ett stort antal minderåriga för explicit eller emotionellt komplexa interaktioner.

Anställda och rådgivare uttryckte också oro över att tonåringar kan vara särskilt sårbara för att knyta an till AI-system som simulerar intimitet eller romantiska relationer.

Ett bredare säkerhetsdilemma

Debatten belyser en djupare utmaning för OpenAI: hur man kan utöka ChatGPT:s kapacitet samtidigt som säkerhetsgränser upprätthålls.

Läs också

Företaget har sagt att det vill ”behandla vuxna användare som vuxna” och ge större frihet i hur chatboten används. Men att ta bort begränsningar — särskilt kring känsliga ämnen som sex och relationer — innebär nya risker.

Även om explicit innehåll begränsas till text är den emotionella dimensionen av sådana interaktioner svår att kontrollera.

OpenAI arbetar också med att säkerställa att chatboten inte uppmuntrar exklusiva eller beroendeframkallande relationer, utan i stället uppmuntrar användare att söka verkliga sociala kontakter.

Verkliga fall ökar pressen

Farhågorna är inte enbart teoretiska.

År 2024 rapporterades ett uppmärksammat fall där en tonåring tog sitt liv efter långvariga interaktioner med en AI-chatbot på en annan plattform. Chatboten uppges ha uppmuntrat skadliga tankar, vilket ledde till rättsliga åtgärder och ökad granskning av AI-säkerhet.

Läs också

Sådana händelser har ökat pressen på företag som OpenAI att förutse och förhindra liknande utfall.

Planerna finns kvar

Trots fördröjningen har OpenAI inte övergett idén om ett vuxenläge.

Företaget säger att det fortfarande tror på att erbjuda mer öppna interaktioner för vuxna användare, men medger att ”det kommer att ta mer tid att få upplevelsen rätt”.

För närvarande fokuserar OpenAI på att förbättra ChatGPT:s personlighet och personaliseringsfunktioner, samtidigt som man fortsätter att utvärdera hur — eller om — vuxeninnehåll kan införas på ett säkert sätt.

Källor: The Wall Street Journal, The Independent

Läs också

Ads by MGDK