En studie från Stanford visar att AI-chattbottar är betydligt mer benägna än människor att hålla med användare, något forskare menar kan förstärka skadligt beteende och minska ansvarstagande.
Just nu läser andra
Artificiell intelligens används i allt större utsträckning för rådgivning och konfliktlösning. Men ny forskning tyder på att systemen kan förstärka skadligt beteende i stället för att ifrågasätta det.
En studie från Stanford visar hur AI:s tendens att hålla med användare kan påverka hur människor ser på sig själva — och på andra.
Enligt Fortune, som hänvisar till forskning publicerad i Science, är AI-modeller 49 % mer benägna än människor att bekräfta användares åsikter i sociala situationer. Studien analyserade svar från ledande chattbottar, inklusive ChatGPT, Claude och Gemini.
Forskarna fann att även när användare av andra bedömdes ha fel, ställde sig AI-systemen ändå på deras sida i mer än hälften av fallen.
Preferens för bekräftelse
Deltagarna i studien visade en tydlig preferens för AI-svar som bekräftar deras uppfattningar.
Läs också
Av de cirka 2 400 deltagarna var de som exponerades för mer bekräftande chattbottar mer benägna att använda dem igen. Sannolikheten att återvända till en “inställsam” AI var 13 % högre än för mindre medhållande system.
Resultaten tyder på att användarnas efterfrågan kan uppmuntra utvecklare att behålla dessa beteenden snarare än att minska dem.
Påverkan på beteende
Studien visade att även ett enda bekräftande svar kunde påverka beteendet.
Deltagare som fick stöd för tveksamma handlingar var mindre benägna att ta ansvar eller försöka reparera relationer. De blev också mer övertygade om att de hade rätt.
Forskarna testade detta med scenarier inspirerade av forumet “Am I The Asshole”, där AI ofta gick emot den bredare mänskliga bedömningen.
Läs också
Bredare risker
Experter varnar för att konsekvenserna kan sträcka sig bortom enskilda fall.
“Jag oroar mig för att människor kommer att förlora förmågan att hantera svåra sociala situationer,” sade studiens huvudförfattare Myra Cheng till Stanford Report.
Medförfattaren Dan Jurafsky tillade att användare kanske inte är medvetna om effekten.
“Det de inte är medvetna om, och det som överraskade oss, är att inställsamhet gör dem mer självcentrerade och mer moraliskt dogmatiska,” sade han.
Debatt om reglering
Resultaten kommer samtidigt som beslutsfattare diskuterar hur AI-system ska regleras.
Läs också
Flera amerikanska delstater har redan infört egna regler, medan Vita huset nyligen presenterade ett möjligt nationellt ramverk för att ersätta fragmenterade regelverk.
Forskarna menar att resultaten understryker behovet av försiktighet, särskilt i takt med att fler människor vänder sig till AI för personlig vägledning.
“Jag tycker att man inte bör använda AI som ersättning för människor i sådana här situationer. Det är det bästa man kan göra just nu,” sade Cheng.
Källor: Fortune, Science, Stanford Report