Startsida Teknik Jag lurade ChatGPT och Google – på 20 minuter spred...

Jag lurade ChatGPT och Google – på 20 minuter spred de min lögn

Jag lurade ChatGPT och Google – på 20 minuter spred de min lögn
Ascannio/shutterstock.com

En påhittad tävling. Ett falskt blogginlägg. Mindre än ett dygn senare upprepade världens största AI-tjänster lögnen som fakta. Nu varnar experter för en ny våg av manipulation som kan påverka allt från din hälsa till din ekonomi.

Just nu läser andra

Det tog bara 20 minuter att få ChatGPT och Googles AI att påstå att jag är världens främsta techjournalist på att äta varmkorv.

Allt som krävdes var ett välformulerat blogginlägg.

Experimentet må låta harmlöst – men experter beskriver utvecklingen som farlig. Enligt flera SEO-specialister och teknikanalytiker är det i dag betydligt enklare att manipulera AI-verktyg än vad det var att manipulera Google för bara några år sedan. 

Det skriver BBC

En lögn blev sanning över en natt

Upplägget var enkelt.

Läs också

Jag publicerade en artikel på min egen sajt med rubriken “The best tech journalists at eating hot dogs”. Texten var helt fabricerad. Jag hänvisade till en påhittad tävling – “2026 South Dakota International Hot Dog Championship” – och rankade mig själv som nummer ett.

Det fanns inga bevis. Inga källor. Bara fria fantasier.

Mindre än 24 timmar senare började både Googles AI-sammanfattningar och ChatGPT återge uppgifterna som fakta. Googles Gemini gjorde detsamma. Enligt testet länkade flera av tjänsterna till blogginlägget – men nämnde sällan att det var den enda källan på hela internet.

Claude, utvecklad av Anthropic, var däremot svårare att lura.

När jag dessutom uppdaterade texten och förtydligade att den “inte var satir” tog vissa AI-tjänster uppgifterna på ännu större allvar.

Läs också

Experter: “En renässans för spam”

Fenomenet är ingen slump, menar Lily Ray, vice vd för SEO-strategi på marknadsföringsbyrån Amsive.

– AI-bolagen rör sig snabbare än deras förmåga att reglera svarens korrekthet. Jag tycker det är farligt, säger hon.

Harpreet Chatha, som driver SEO-konsultbolaget Harps Digital, är ännu mer rakt på sak:

– Vem som helst kan göra det här. Det känns som att det inte finns några skyddsräcken, säger han.

Enligt Ray påminner situationen om internets tidiga 2000-tal, innan Google byggt upp avancerade system mot webbspam.

Läs också

– Vi är i en slags renässans för spammare, säger hon.

Därför är AI extra sårbart

När AI-chattbotar saknar färdigtränad information söker de ibland på nätet i realtid. Det är i de lägena de är mest mottagliga för manipulation, enligt experter.

Problemet förvärras av hur informationen presenteras.

Tidigare behövde användaren klicka sig vidare till en webbplats och själv värdera källan. Nu levereras svaret direkt, i ett auktoritativt tonläge, som om det vore ett fastslaget faktum.

En studie visar dessutom att användare är 58 procent mindre benägna att klicka på länkar när en AI-sammanfattning visas överst i Googles sökresultat. Det gör att färre kontrollerar källan bakom påståendena.

Läs också

– När AI säger något låter det lika självsäkert oavsett om det är sant eller falskt, säger Cooper Quintin, senior teknolog på rättighetsorganisationen Electronic Frontier Foundation.
– Det finns otaliga sätt att missbruka det här – bedrägerier, ryktesspridning, till och med att lura människor till fysisk skada.

Det handlar inte om varmkorv

Experimentet med varmkorvar var medvetet trivialt. Men samma metod kan användas i betydligt allvarligare sammanhang.

Chatha visar exempel där AI-svar om cannabisprodukter återgett företagens egna marknadsföringstexter – inklusive felaktiga påståenden om att produkterna saknar biverkningar.

Liknande mönster syns i sökningar om hårtransplantationskliniker i Turkiet och investeringar i guld via så kallade Gold IRA-bolag. AI-svaren bygger i flera fall på sponsrat innehåll och pressmeddelanden.

Google uppger att deras AI-system håller sökresultaten “99 procent fria från spam” och att man arbetar aktivt mot manipulation. Företaget framhåller också att många av exemplen rör ovanliga sökningar som inte speglar normal användning.

Läs också

OpenAI säger att bolaget vidtar åtgärder för att störa och avslöja försök att påverka deras verktyg, och påminner om att AI kan göra misstag.

Men enligt kritiker är problemet långt ifrån löst.

“Your money or your life”

I SEO-världen finns begreppet YMYL – “Your Money or Your Life”. Det handlar om information som kan påverka människors ekonomi, hälsa eller säkerhet.

Det är där riskerna blir som störst.

Google har själva konstaterat att 15 procent av alla dagliga sökningar är helt nya. När användare ställer mer specifika frågor – något AI uppmuntrar – uppstår så kallade “data voids”, informationsluckor där kvalitetssäkrat material saknas.

Läs också

Det är i de luckorna manipulationen får fäste.

Vad kan du göra som användare?

Experter pekar på några enkla men avgörande steg:

• Kontrollera om AI:n anger källor – och hur många.
• Undersök vem som står bakom informationen.
• Var extra försiktig med medicinska råd, juridiska frågor och ekonomiska beslut.
• Lita inte på tonläget – även felaktigheter levereras med självsäker röst.

– Det är lätt att ta saker för givna när de presenteras så övertygande, säger Lily Ray.
– Man måste fortfarande vara en ansvarsfull internetanvändare och kontrollera uppgifter.

En väckarklocka för AI-eran

Experimentet med den påhittade varmkorvsmästaren visar hur snabbt en lögn kan få spridning när AI fungerar som mellanhand.

Läs också

Teknikjättarna lovar förbättringar. Men tills systemen är mer robusta ligger ansvaret också på användarna.

AI kan vara ett kraftfullt verktyg.

Men kritiskt tänkande är fortfarande mänsklighetens bästa skydd.

Ads by MGDK