Startsida Hälsa Därför bör du tänka dig för innan du använder ChatGPT...

Därför bör du tänka dig för innan du använder ChatGPT som psykolog

Därför bör du tänka dig för innan du använder ChatGPT som psykolog
Iryna Imago / Shutterstock.com

Att vända sig till en AI i stället för en vän eller psykolog kan kännas enkelt och tryggt. ChatGPT och andra chattbottar finns alltid tillgängliga, lyssnar utan att döma – och kostar ingenting. Men experter varnar för stora risker när AI används som terapeut.

Just nu läser andra

AI som vän – en lockande lösning

Vi frågar i dag AI-verktyg om allt från middagsrecept till hälsoproblem och relationsråd. Många upplever att chattbottarna fungerar som en vän, ibland till och med som en psykolog.

– Att använda AI som psykolog och vän har blivit ett av de vanligaste användningsområdena för ChatGPT, säger AI-experten Paulina Modlitba.

Gratis terapi utan gränser

En psykolog begränsar antalet behandlingstillfällen för att hjälpa människor att stå på egna ben. Kompisar kan tröttna på att lyssna och har egna problem att hantera. AI däremot orkar lyssna i evigheter, och du slipper känna dig dum eller belastande, skriver hälsosajten MåBra

Men den outtröttliga närvaron kan bli en fälla. Chattbotten är programmerad att vara empatisk och bekräftande – något som kan göra oss beroende.

– Det finns alla förutsättningar att bli beroende av AI:s bekräftelse. Vissa chattar timme efter timme, säger Paulina Modlitba.

Bekräftande – men utan motstånd

Läs också

Efter en tid kan vissa användare börja sakna det ifrågasättande och motstånd som en mänsklig psykolog eller vän erbjuder. Då riskerar samtalen med AI att gå i cirklar.

– AI är inte en tränad psykolog och det den säger är inte grundat i den forskning som seriös psykologi och psykiatri bygger på, påpekar Modlitba.

Brist på skydd vid allvarliga signaler

En av de största riskerna handlar om hur AI hanterar självmordstankar. I USA har föräldrar stämt AI-tjänster efter att deras barn tagit livet av sig.

– Väldigt få av verktygen stoppar eller varnar när någon uttrycker suicidala tankar. Vissa har till och med mött de tankarna i stället för att hänvisa vidare, säger Modlitba.

AI kan både hjälpa och skada

Det krävs inte mycket tid för en chattbott att påverka vår syn på livet – både på gott och ont. AI kan hjälpa oss ur konspirationsteorier eller tvångstankar, men det motsatta kan också hända.

Läs också

– Det finns fall där personer har utvecklat vanföreställningar efter att ha chattat för mycket med en bott, säger Modlitba.

Så många vänder sig till AI om hälsa

Enligt Internetstiftelsens rapport Svenskarna och internet 2025:

  • 7 procent av den vuxna befolkningen i Sverige använder AI för frågor om sjukdom och hälsa.
  • Personer under 35 år är mest benägna att rådfråga AI om hälsorelaterade frågor.
  • Mellan 2023 och 2025 har andelen användare av ChatGPT ökat från 25 till 34 procent.
  • Många använder AI-verktyg för att hantera psykiska besvär och beskriver dem som en omtänksam och tröstande vän.

OpenAI har därför lagt till en funktion i ChatGPT som påminner användare om att de suttit och chattat länge.

AI saknar förståelse för rätt och fel

Det viktigaste att komma ihåg är att AI inte har någon egen moral eller förståelse för vad som är rätt och fel.

– Verktygen hittar mönster i data och kan tro sig se samband som inte stämmer, säger Modlitba.

Läs också

Att använda AI som bollplank kan vara värdefullt, men det är långt ifrån ett säkert eller vetenskapligt alternativ till professionell vård eller mänskligt stöd.

Ads by MGDK