Allt fler tecken tyder på att en ny risk tornar upp sig för Gmail-användare – och den kan drabba precis vem som helst.
Just nu läser andra
Google har under en längre tid varnat för att avancerade AI-funktioner i både webbläsare och plattformar kan öppna nya vägar för angrepp.
Myndigheter världen över uttrycker oro för att utvecklingen kan bli allvarligare än något vi tidigare har sett.
Nu kommer en ny varning som berör miljontals Gmail-användare: Om en angripare kan påverka vad AI läser, kan de också påverka vad AI gör.
Frågan kan låta teoretisk, men konsekvenserna är allt annat än abstrakta.
Det skriver Forbes.com.
Läs också
AI får tillgång till allt om du godkänner det
När Google tidigare anklagades för att träna sina AI-modeller på Gmail-användares data, avfärdade företaget det helt.
Experter påpekar dock att den verkliga risken ligger i AI:ns tillgång till informationen – inte nödvändigtvis i träningsprocessen.
När användare aktiverar de nya AI-funktionerna ges teknologin tillgång till hela ekosystemet av mejl, dokument och kalenderhändelser.
Det är betydligt mer omfattande än många är medvetna om.
GeminiJack avslöjade en oväntad sårbarhet
Säkerhetsföretaget Noma har presenterat en rapport om en sårbarhet som fått namnet GeminiJack.
Läs också
Den gjorde det möjligt för angripare att komma åt känslig företagsdata via något så vardagligt som ett delat
Google-dokument eller en kalenderinbjudan. Inga klick krävdes, inga varningar visades och inga säkerhetssystem reagerade.
Google har samarbetat med Noma och åtgärdat just denna brist. Händelsen visar ändå hur ständig kampen mot AI-relaterade sårbarheter är.
När en enkel sökning kan äventyra information
Prompt injection-attacker är i grunden inte tekniskt avancerade.
Om en användare låter AI läsa dokumenten i stället för att göra det själv, kan angripare gömma instruktioner i texten.
Läs också
När en anställd sedan ber Googles AI att hitta uppgifter i till exempel budgetfiler, kan AI:n omedvetet följa de dolda kommandona. Ofta märker användaren ingenting.
AI bör behandlas som en anställd med begränsade rättigheter
Storbritanniens National Cyber Security Centre rekommenderar att organisationer ser AI-assistenter som medarbetare, inte som privata och helt pålitliga verktyg.
Om man inte skulle ge en nyanställd full tillgång till lösenord och ekonomisk information, bör man heller inte ge en AI fri åtkomst.
Noma påpekar att även om Google har löst det specifika problemet kommer liknande angrepp att dyka upp igen.
Användare bör därför tänka noggrant över vilka AI-uppdateringar de godkänner och vilken tillgång de ger tekniken.