Startsida Hälsa Därför ska du aldrig fråga ChatGPT om hälsa eller sjukdomar

Därför ska du aldrig fråga ChatGPT om hälsa eller sjukdomar

Därför ska du aldrig fråga ChatGPT om hälsa eller sjukdomar
Phonlamai Photo/shutterstock.com

Att fråga ChatGPT om sjukdomar, symtom eller kostråd kan få allvarliga konsekvenser. AI-experten Paulina Modlitba menar att det är en risk många inte förstår – och att chattbotten inte är gjord för att ge livsviktiga råd.

Just nu läser andra

– Det kan verkligen vara livsfarligt, säger hon.

När AI ger farliga råd

För bara någon månad sedan rapporterades det att en man i USA hamnade på sjukhus efter att ha följt ett kostråd från ChatGPT. Han ville undvika vanligt bordssalt och frågade AI:n vad han kunde ersätta det med. Svaret blev natriumbromid – ett ämne som i höga doser kan ge hallucinationer, paranoia och psykoser.

– Det är bara ett exempel på hur farligt det kan bli när man tar AI-svar bokstavligt, säger Paulina Modlitba.

Hon betonar att det är just inom hälsa och sjukvård som riskerna är störst, eftersom felaktiga råd kan få direkta konsekvenser för människors liv.

”AI har ofta fel – det ligger i dess natur”

OpenAI, företaget bakom ChatGPT, satsar aktivt på att utveckla AI inom områden som hälsa och medicin. Men även om tekniken går snabbt framåt är den långt ifrån ofelbar.

Läs också

– Chattbottar kommer aldrig att bli perfekta. De är tränade på enorma mängder historisk data, men datan är inte alltid uppdaterad. Nya forskningsrön kan motsäga gamla sanningar, men AI:n fortsätter ändå att bygga på det gamla, säger Modlitba, skriver hälsosajten MåBra

Det innebär att informationen ibland är föråldrad eller rentav felaktig – särskilt när det handlar om medicinska råd.

Det här ska du aldrig fråga ChatGPT

Vissa typer av frågor bör man helt undvika att ställa till en AI. Paulina Modlitba nämner särskilt frågor som kräver ett hundraprocentigt korrekt och faktabaserat svar.

– Jag skulle aldrig fråga: ”Min son har ont i magen, vad kan jag ge honom hemma för att lindra?” Det är helt enkelt inte säkert.

Hon varnar också för frågor kopplade till psykisk ohälsa.

Läs också

– AI-verktyg saknar ofta skyddsräcken när någon visar tecken på suicidala tankar. Sådana frågor måste tas om hand av människor, inte maskiner.

Samtidigt kan ChatGPT fungera som ett samtalsstöd vid mindre känsliga ämnen.

– Jag kan tänka mig att fråga om perspektiv i en relation, som ”borde jag göra slut eller inte?”. Då handlar det mer om reflektion och dialog, inte om fakta, säger hon.

Använd AI – men gör det smart

Paulina Modlitba använder själv ChatGPT dagligen, men på ett medvetet sätt.

– Jag ser det som en kreativ assistent. Jag använder det för att tänka bredare, få nya idéer och ifrågasätta mina egna tankar. Men jag använder det inte som en källa till fakta.

Läs också

Hon berättar att hon ofta låter ChatGPT hjälpa till med att skriva tal och presentationer – men alltid med en rejäl dos mänsklig efterkontroll.

– Om GPT citerar något, dubbelkollar jag alltid. AI är väldigt bra på att låta övertygande, men det betyder inte att det har rätt. Det är vårt ansvar att kontrollera fakta.

Därför är det bättre att vara inloggad

Att använda ChatGPT i ett inloggat läge kan ge vissa fördelar, enligt Modlitba.

– Då minns chattbotten vad ni pratat om, vad du gillar och tycker. Det gör att den kan ge mer personliga och relevanta svar.

Men hon förstår att många tycker att det känns obehagligt.

Läs också

– Vi lämnar redan massor av information till företag som Google och Microsoft. Skillnaden är hur tydligt vi är medvetna om det.

Hon påminner om att betalversioner av AI-tjänster ofta lovar att användardata inte används för att träna modellerna.

– I slutändan handlar det om att välja: antingen betalar du med din data, eller med pengar. Läs alltid användarvillkoren innan du börjar använda en tjänst, säger Paulina Modlitba.

Ads by MGDK