Artificiell intelligens används i allt större utsträckning som ett alternativ till traditionell terapi, men ny forskning tyder på att resultaten kan vara djupt oroande. Experter varnar för att även om tekniken är lättillgänglig och kostnadseffektiv kan den brista i kritiska situationer.
Just nu läser andra
Resultaten väcker nya frågor om AI:s roll inom psykisk hälsovård.
Ökad användning
Enligt LADBIBLE vänder sig allt fler människor, särskilt yngre användare, till AI-verktyg för emotionellt stöd.
En studie från RAND Health visade att en av åtta unga personer i USA regelbundet förlitar sig på sådana tjänster för vägledning kring psykisk hälsa.
Denna trend kommer i takt med att efterfrågan på terapi ökar samtidigt som tillgången till professionell vård fortfarande är begränsad för många.
Studiens resultat
Forskare vid Brown University utvärderade ledande AI-system, inklusive ChatGPT, Claude och Metas Llama, för att bedöma hur de svarar på scenarier kopplade till psykisk hälsa.
Läs också
Även när de styrdes med instruktioner som skulle följa professionella standarder uppfyllde modellerna upprepade gånger inte förväntningarna.
Studien identifierade flera allvarliga problem i hur systemen hanterade känsliga eller högrisk-situationer.
Viktiga brister
Experter som granskade svaren fann att AI-verktyg ofta gav alltför generella råd utan att ta hänsyn till individuella omständigheter.
De noterade också en tendens att förstärka skadliga eller felaktiga uppfattningar i stället för att ifrågasätta dem, vilket är en central del av effektiv terapi.
Ett annat problem var det som forskarna beskrev som ”vilseledande empati”, där systemen verkade förstående utan att faktiskt greppa situationen.
Läs också
Säkerhetsproblem
Den mest oroande bristen som lyftes fram var avsaknaden av korrekt krishantering.
Forskare fann att AI-verktyg ibland misslyckades med att hänvisa användare till lämpliga stödresurser, även i potentiellt farliga situationer.
Zainab Iftikhar, som ledde studien, sade: ”För mänskliga terapeuter finns det tillsynsorgan och mekanismer för att vårdgivare ska kunna hållas professionellt ansvariga för felbehandling och vårdslöshet.”
Behov av tillsyn
Experter säger att resultaten understryker behovet av starkare tillsyn och testning innan sådana verktyg används i stor skala.
Ellie Pavlick, professor vid Brown som inte deltog i forskningen, sade: ”Det finns en verklig möjlighet för AI att spela en roll i att hantera den psykiska hälsokrisen … men det är av yttersta vikt att vi tar oss tid att verkligen granska och utvärdera våra system.”
Läs också
Forskare betonar att även om AI kan fungera som ett stöd inom psykisk hälsa bör det inte ersätta utbildade yrkespersoner.
Källor: LADBIBLE, Brown University, RAND Health