En ny brittisk lag gör det olagligt att skapa sexuella AI-bilder av verkliga personer utan samtycke. I skottlinjen hamnar Elon Musks Grok, som kopplas till spridning av sexualiserade deepfakes på X.
Just nu läser andra
Nytt förbud: från innehåll till verktyg
Storbritannien skärper nu reglerna mot så kallade sexuella deepfakes – AI-genererade, sexualiserade bilder där verkliga personer framställs utan att ha sagt ja. Regeringen vill inte bara stoppa spridningen, utan även slå mot själva skapandet och mot de digitala verktyg som används för att producera materialet, enligt brittiska regeringen i ett uttalande på GOV.UK.
Grok hamnar i centrum
I debatten pekas AI-verktyget Grok ut som ett av verktygen som kan användas för att skapa den här typen av bilder. När lagen skärper kraven och riktar in sig på verktyg som möjliggör övergrepp, betyder det i praktiken att Grok inte kan användas på samma sätt i Storbritannien, skriver Time.
Spridning på X utreds
Den brittiska tillsynsmyndigheten Ofcom utreder nu om plattformen X har brustit i sitt ansvar, efter uppgifter om att sexuella deepfakes har kunnat spridas via tjänsten, rapporterar Reuters. Enligt nyhetsbyrån har Grok kopplats till att explicit material kunnat genereras i anslutning till X.
Starmer: staten kan gå längre
Premiärminister Keir Starmer har signalerat att regeringen är beredd att ta i med hårdare tag om plattformarna inte lever upp till kraven. Enligt Reuters uppgav Starmer i parlamentet att X nu vidtar åtgärder för att följa brittisk lag – men att regeringen kan återkomma med fler steg om det behövs.
Politisk press: ”det här måste stoppas”
Även brittiska parlamentariker har pressat på för tydligare tillsyn. I en färsk uppdatering skriver det brittiska parlamentets kultur-, media- och sportutskott att man vill veta vilka åtgärder som vidtas efter rapporter om sexualiserade AI-bilder kopplade till Grok på X, enligt UK Parliament.
Läs också
Ett skifte: förebygga i stället för att jaga i efterhand
Regeringens linje är att det inte räcker att bara ta ner material när skadan redan skett. Genom att kriminalisera själva skapandet – och strama upp synen på verktygen bakom – vill man göra det svårare att använda AI för att kränka och skada andra, enligt GOV.UK.