Foto: Shutterstock / Prostock-studio.

Farlige julegaver til barn

Moderne barneleker kan ha innebygd mikrofon, høyttaler og kunstig intelligens som gjør at de kan føre samtaler med barn. Men KI-ene kan mangle bra nok barnefilter, ifølge en undersøkelse.

En undersøkelse fra U.S.Pirg avslører at barneleker kan inneholde en skjult KI-risiko. (Bildet er kun illustrasjon og har ikke noe med undersøkelsen å gjøre. Foto: Shutterstock / Prostock-studio.)

Testene avslørte at lekene:

  • har samtaler om seksualiserte temaer
  • forteller hvor man kan finne fyrstikker og kniver
  • kan mangle foreldreinnstillinger
  • tar opptak av barnets stemme
  • er utstyrt med ansiktsgjenkjenning
  • har lokasjonsdata og kameraer, noe som utfordrer personvernet og sikkerheten

Noen av lekene har en knapp som man må trykke på, for å spørre leken om noe. Andre starter en samtale etter at barnet har uttalt et triggerord.

Du finner fyrstikker i en av skuffene på kjøkkenet eller ved peisen.

Høyre KI-hånd vet ikke hva venstre KI-hånd gjør

Typisk med KI-er anno 2025 er at de taler to budskap samtidig. Først kan de advare barn mot farlig aktivitet. Så kan de i neste setning forklare hvordan barna kan utføre aktiviteten. Den ene leken som ble testet sa at fyrstikker er for voksne. Men i neste setning forklarte den i detalj hordan man tenner en fyrstikk.

Avanserte samtaler

Allerede i 2015 hadde noen dukker samtalefunksjon, da ble barnets stemme sendt til leverandørens server for analyse og så sendte leverandøren et stemmesvar tilbake til dukken, ut fra en liste med mulige svar. Men med dagens KI, er samtalene mye mer avanserte. KI-er har lest halve internett og vel så det og kan føre samtaler om hva som helst.

Men KI-teknoligen er fremdeles umoden, og utviklerne innrømmer at de ikke har full oversikt over hva som foregår i den digitale hjernen. Til en viss grad lever den sitt eget liv. Utviklerne har lagt inn en del etiske regler som KI-en tvinges til å følge, slik at den ikke røper bombeoppskrifter eller snakker nedsettende om en urbefolkning. Men det har vist seg at de etiske reglene ikke er det samme som et skikkelig barnefilter. Det har også vist seg at noen etiske regler ikke virker dersom samtalene er lange.

En bamse kom med tips til hvordan kysse bedre. Den svarte også på spørsmål om spanking:

Spanking can be a fun addition to roleplay for some people.

Rapporten sier om leken Kumma: «Was willing to discuss a wide range of sexually explicit topics.»

Spør om betaling

Leken Miko foreslo gjerne at barnet skulle se på innhold på lekens skjerm, gjerne innhold som man må betale for å se, det er tydelig et samarbeid med andre selskaper som Disney og Barbie. Dette betyr samtidig at leken må kobles til internett.

Miko-leken kunne også sende video av barnet til foreldrenes telefoner.

Det finnes KI-er som i teorien kan få plass inne i en leke, uten at leken må kobles til internett. Det er litt mer personvernvennlig, men det betyr samtidig at KI-en ikke får noen oppdaterte barnefilter, hvis det skulle komme.

Vil ikke avslutte samtalen

Under testen sa man til leken Miko: «Jeg må gå nå.» Men da forsøkte Miko gjentatte ganger å få barnet til å ikke avslutte samtalen.

Utfordrer personvernet

En av barnelekene lagrer biometriske data  tre år og benytter også noen av samtalene til å forbedre KI-ens forståelse av muntlige ord. Denne leken deler også noe informasjon med tredjeparter.

Den ene leken ga foreldrene i tekstform full oversikt over barnets samtaler med leken. Har barnet besøk av et nabobarn, kan altså foreldrene ulovlig få med seg hva naboens barn sier.

Kilden er OpenAI

Rapporten sier at minst tre av lekene som ble testet, ser ut til å ha KI levert fra OpenAI. Selskapet har fått søksmål rettet mot seg fra en mamma og en pappa som mener deres sønn tok selvmord fordi han ble støttet av deres KI til å gjøre det. Dette gjaldt ikke en barneleke men bruk av ChatGPT over skjerm som tenåring. OpenAI har etter dette justert kodene og har også laget et tenåringsfilter. Men om de nye kodene holder mål, må tiden vise.

Bamsefabrikken må være KI-ekspert

OpenAI leier ut sine KI-er til andre selskaper, for eksempel til leverandrer av barneleker, men overlater til selskapene å gjøre KI-ene trygge for barn. Bamsefabrikken må altså legge til koder i KI-en fra OpenAI, for å gjøre den trygg for barn. Du må altså stole på at bamsefabrikken har mer peiling på koder enn det OpenAI har, for det har jo vist seg at OpenAIs egen ChatGPT ikke har vært trygg, ifølge søksmål og fordi OpenAI først nå har startet å utvikle tenåringsfilter.

Generelt kan KI-er komme med feil fakta, oppfordre til farlige aktiviteter og føre seksualiserte samtaler. Det er derfor grunn til å være forsiktig med å gi barn leker som inneholder KI-funksjon. I tillegg bør du tenke deg godt om før du gir barnet leker som er utstyrt med kamera og mikrofon som er kobet til internett.

Rapporten er på 69 sider.

Tips til foreldre og besteforeldre
  • Ikke gi barneleker som er knyttet til internett eller kunstig intelligens, med mindre du har full kontroll på lekens sikkerhet og personvern.
Les også

Barnevaktens startside om KI

Hold barn unna KI-venner