Med en ny presidentorder vill Donald Trump förbjuda AI som främjar mångfald, rättvisa och inkludering. Men experter varnar för att politiseringen av tekniken riskerar att slå tillbaka. Frågan är: Är AI verkligen vänstervriden – eller är det samhället som speglas i algoritmerna?
Just nu läser andra
AI:s ideologiska stämpel ifrågasätts
Att AI-system skulle vara politiskt färgade är en förenkling, menar Magnus Mähring, professor vid Handelshögskolan i Stockholm. Istället speglar de vår egen historia och samtid, skriver SVT Nyheter.
– De stora språkmodellerna försöker återskapa en slags konsensus av vad vi har sagt, skrivit och tyckt – framför allt i den engelskspråkiga världen – de senaste årtiondena, säger han.
När mångfald och inkludering lyfts fram i AI-svar handlar det inte om ideologisk påverkan, utan om att modellerna tränats på enorma mängder text från samhälle, forskning och media.
Trump vill stoppa ”vänstervriden teknik”
Tidigare i veckan skrev USA:s president Donald Trump under en ny presidentorder med krav på att federala myndigheter bara får använda AI-system som är fria från vad han kallar ideologiska dogmer. Det gäller särskilt mångfald, rättvisa och inkludering (DEI). Målet är att USA ska bli världsledande på ”opartisk” AI.
Läs också
– Jag ser en växande risk för att språkmodellerna blir föremål för politiska påtryckningar, säger Mähring. De är lätta att manipulera, men konsekvenserna är ofta svåra att förutse.
Bilder som väcker debatt
Det republikanska AI-kritiska narrativet fick nytt bränsle efter att en AI-modell genererade en bild av USA:s grundare – med oväntad etnisk mångfald. För vissa blev det ett exempel på ”woke AI”. För Mähring är det snarare ett försök från modellen att kompensera snedvridna data.
– Historiskt har högstatusroller dominerats av vita män, och det avspeglas i träningsmaterialet. För att undvika skevheter försöker modellen ibland korrigera. Men det kan slå över, säger han.
AI kan manipuleras – ibland med absurda följder
Det är inte bara partiskhet som oroar forskarna – utan hur lätt modellerna kan styras åt ett visst håll. Mähring nämner ett exempel från AI-assistenten Groq, som under en tid började lägga till ett påstående om ”vitt folkmord i Sydafrika” i nästan varje svar.
– Någon har sannolikt gjort en ändring i modellen. Men när sådana justeringar får eget liv kan resultatet bli något helt annat än det var tänkt, säger han.
Teknik i skottlinjen
När AI hamnar mitt i den politiska hetluften blir det svårt att dra tydliga gränser mellan teknik, ideologi och samhällsnormer. För forskarna är det viktigare att förstå hur modellerna fungerar – och varför de svarar som de gör – än att etikettklistra dem som vänster eller höger.
– Vi måste prata mer om vad vi vill att AI ska vara – inte bara vad den är idag, säger Mähring.