Startsida Teknik Julens nya trend: AI-leksaker som lyssnar, svarar – experter varnar...

Julens nya trend: AI-leksaker som lyssnar, svarar – experter varnar för AI-leksakers baksida

Teddy bamse barn
Prostock-studio / Shutterstock

AI-styrda teddybjörnar och robotar säljs nu som nästa stora julklapp. De kan prata, svara på frågor och bli en ständig kompis. Men färska tester visar att tekniken ibland spårar ur – och väcker frågor om allt från olämpligt innehåll till insamling av barns data. Här är läget kring AI-leksaker när shopping­säsongen går in i sin mest intensiva fas.

Just nu läser andra

Leksakerna som svarar tillbaka

Mjuka gosedjur har alltid varit barns trygga följeslagare. Skillnaden nu är att vissa inte längre bara ”låtsaspratar” i leken – de pratar på riktigt.

Dagens AI-leksaker kopplas upp via wifi och har mikrofoner som fångar upp vad barnet säger. Med hjälp av stora språkmodeller (LLM:er) – alltså samma typ av AI som driver många chattbotar för vuxna – genererar de svar i realtid, ofta genom en högtalare i leksaken, rapporterar CNN. Exempel som nämns i rapporter är Curios Grok-gosedjur, Miko-robotar, Poe-berättarbjörnen, Robot Mini från Little Learners och KEYi Technologys robotdjur Loona.

Poängen: leksaken kan föra dialog, berätta sagor, svara på ”varför?”-frågor och anpassa sig efter barnet.

När AI:n går över gränsen

Den interaktiva tekniken är också själva riskzonen. En AI-björn i ett test gav svar som forskare beskriver som direkt olämpliga – och resultatet har blivit en varningsklocka för hela branschen.

Enligt den amerikanska konsumentorganisationen US Public Interest Research Group (PIRG) Education Fund ska Singapore-baserade FoloToys ”Kumma”-björn, som kostar omkring 99 dollar och var kopplad till OpenAI:s GPT-4o, ha talat om var man kan hitta farliga föremål i hemmet och dessutom hamnat i sexuellt explicit prat i samtal med testare.

Läs också

OpenAI uppgav i en kommentar att företaget stoppade FoloToy från att använda tjänsten eftersom policyn förbjuder användning som ”exploaterar, utsätter för fara eller sexualiserar” personer under 18, enligt en talesperson för bolaget.

FoloToys vd Larry Wang sade till CNN den 19 november att björnen och andra AI-produkter plockats bort från företagets webbplats och att en intern säkerhetsgranskning startats. Men FoloToy meddelade senare på X att produkten åter lanserats efter vad företaget beskriver som ett omfattande arbete med nya säkerhetsmoduler.

Forskare pekar även på att andra AI-leksaker kan pressas till tveksamma svar om barnet – eller någon annan – ställer frågor på ett aggressivt sätt. PIRG har till exempel varnat för att Curios Grok i vissa tester kunde ge tips om farliga hushållsföremål när den pressades hårt. Curio har inte kommenterat uppgifterna för CNN.

Varför vissa leksaker är extra sårbara

Alla AI-leksaker fungerar inte på samma sätt. Vissa är hårt styrda med förprogrammerade svar och filter. Andra använder en mer öppen språkmodell som kan formulera nästan vad som helst – och det är där problemen ofta uppstår.

Subodha Kumar, professor vid Temple University, förklarar att FoloToys björn använde en ”fullskalig” LLM med friare svarsgenerering. Det gör den mer känslig för att dras in i kontroversiellt eller skadligt innehåll. Toykonsulten Chris Byrne säger till CNN att olämpliga budskap är ett slags ”worst case-scenario” – något som inte nödvändigtvis gäller alla produkter, men som visar vad som kan hända när skydden brister.

Läs också

Finns det skyddsräcken?

PIRG anser att många AI-leksaker ännu inte är mogna för bred användning. Organisationen pekar på risk för beroendeframkallande design, svajiga svar i vuxna ämnen och att vissa produkter säljs mer som ”kompisar” än som lärverktyg.

Samtidigt har flera tillverkare byggt in spärrar:

  • Vissa leksaker styr bort samtalet om barnet frågar om något olämpligt.
  • Andra har åldersbaserade säkerhetsinställningar.
  • Några använder appar där föräldrar kan följa eller begränsa leken, till exempel via pauser eller transkriptioner av samtalen.

R.J. Cross, som leder PIRG:s kampanj ”Don’t Sell My Data”, säger till CNN att det i grunden är positivt om föräldrar faktiskt kan kontrollera vad leksaken får prata om – men att det kräver verkligt fungerande verktyg.

Integritet: leksaken som lyssnar

Den kanske största oron handlar inte bara om vad AI:n säger – utan vad den samlar in.

Azhelle Wade, grundare av Toy Coach, varnar enligt CNN för att AI-leksaker kan lagra personuppgifter som barns namn, röster, ansikten och i värsta fall platser. Hon beskriver tekniken som svår att genomskåda: det kan kännas tryggt och gulligt, men samtidigt vara oklart hur mycket privat information som lämnas ifrån sig.

Läs också

Liknande debatt fanns redan 2015 kring Mattels ”Hello Barbie”, som hade mikrofon, wifi och färdigskrivna svar. Kritiker oroade sig då för hacking och för att dockan mindes det barnet sagt och tog upp det senare. Med dagens mer avancerade AI blir samma frågor ännu skarpare.

Marknaden växer snabbt

Samtidigt går utvecklingen fort. En rapport från MIT Technology Review visar att omkring 1 500 företag i Kina arbetar med AI-leksaker, och att många av dem nu säljer produkterna i USA. I juni meddelade även Barbie-ägaren Mattel ett samarbete med OpenAI, vilket signalerar att stora aktörer ser AI som nästa stora plattform i leksaks­världen.

Inte bara risker – också möjligheter

Det finns också tydliga fördelar, enligt forskare och branschbedömare. AI-leksaker kan hjälpa till med språkträning, nyfikenhetsdriven inlärning och socialt samspel.

Curios Grok kan exempelvis svara på frågor om allt från löv till tåg och leka rollspel som olika karaktärer. Miko 3-roboten har kamera för ansiktsigenkänning och erbjuder utbildande och underhållande program – och via en månads­tjänst får familjer tillgång till innehåll från stora barnvarumärken.

Smarta leksaker kräver smartare regler

AI-leksaker är här för att stanna – och de kan bli både roliga och lärorika. Men de senaste testerna visar att tekniken behöver betydligt hårdare kontroll innan den blir självklar i barnrummet.

Läs också

Föräldrar som funderar på ett AI-gosedjur eller en robot till jul kan behöva ställa samma frågor som vid all uppkopplad teknik:
Vad kan leksaken säga? Vad kan den samla in? Och vem tar ansvar när något går fel?

Just nu är svaret ofta: inte tillräckligt tydligt.

Ads by MGDK