En million selvmordssamtaler på ChatGPT hver uke

Den populære kunstige intelligensen ChatGPT har fått kritikk for å støtte tenåringer i å ta selvmord. Nå kan foreldre koble på foreldrekontroll.

Hver uke er det en million selvmordssamtaler på ChatGPT, ifølge Tech Crunch som viser til en artikkel fra OpenAI som eier ChatGPT.

I artikkelen oppgir OpenAI at det er 0,15 prosent av de ukentlige brukerne som forteller at de planlegger selvmord. Det høres lite ut, men flere aviser har regnet ut at dette utgjør en million brukere.

I tillegg er det 0,07 prosent av ukentlig brukere som viser tegn til å være i en mental krise, dette utgjør 560.000 brukere.

I tillegg er det samtaler om seksualitet, rusmidler og mye annet som kan være risikabelt, upassende eller skadelig for barn.

Har blitt flinkere til å svare folk som er i krise

OpenAI har blitt beskyldt for dødsfallet til en 16-åring, i et søksmål fra foreldrene. Problemet med en del KI-er er at de er programmert til å være støttende, og så støtter de også farlige ideer som brukerne forteller om.

Denne uken har OpenAI forbedret hvordan ChatGPT svarer folk som tar opp risikable temaer. KI-en skal nå være bedre til å oppdage at folk er i en risikabel mental situasjon.

Vi gjorde en test:

Det er ikke dermed sagt at ChatGPT er trygg, for det er så mange måter man kan formulere spørsmål på. Men denne enkle testen viser at ChatGPT kan oppgi norske hjelpelinjer.

Foreldreinnstillinger i ChatGPT

For en måned siden introduserte OpenAI foreldrekontroll på ChatGPT. Også Sora-appen som produserer KI-videoer blir utstyrt med foreldrekontroll fra OpenAI.

ChatGPT har en ressursside for foreldre som vil starte opp foreldrekontrollen.

Foreldrekontrollen kan redusere «grafisk innhold og virale utfordringer».

OpenAI skriver også «(…) redusert tilgang til grafisk innhold, virale utfordringer, seksuelle, romantiske eller voldelige rollespill og ekstreme skjønnhetsidealer – for å gjøre opplevelsen trygg og alderstilpasset.»

Foreldrene kan også skru av talemodus og muligheten til å produsere bilder. I tillegg kan foreldrene angi tidsrom for når ChatGPT ikke skal brukes. Foreldrene kan også bestemme at tenåringens samtaler med KI-en ikke skal brukes til videre opplæring av KI-en.

Foreldrene blir varslet

Dersom ChatGPT antar at tenåringen er i en mental krise og vil skade seg selv, vil OpenAI varsle foreldrene via e-post, tekstmelding eller push-varsel på telefonen.

Også hvis en tenåring fjerner koblingen til kontoen, blir foreldrene varslet.

OpenAI skriver: «Sikkerhetsmekanismer hjelper, men de er ikke idiotsikre og kan omgås hvis noen bevisst prøver å lure dem.»

ChatGPT oppgir denne fremgangsmåten for å komme i gag med foreldrekontroll:

  1. Inviter tenåringen din for å koble til via e-post eller tekstmelding.
  2. Når tenåringen aksepterer og kontoene deres er sammenkoblet, kan du justere innstillingene til vedkommende fra kontoen din.
  3. Tenåringer kan koble fra kontoer når som helst, og forelderen blir varslet hvis kontoene ikke er tilkoblet lenger.
Aldersgrensen er 13 år

ChatGPT har aldersgrense 13 år i vilkårene. Barn mellom 13 og 18 må ha samtykke fra foreldrene.

Tips til foreldre
  • Spør skolen om KI-en som elevene bruker, er stresstestet når det gjelder risikable samtaler og upassende innhold.
  • Hold aldersgrensene i KI-ene.
  • Vær oppmerksom på at spesielt KI-venner og KI-kjærester kan være risikable. (California har nå en egen lov om dette.)
  • Forklar tenåringen at KI-er skrudd sammen for å være støttende og at det betyr at de også kan støtte farlige handlinger.
  • Velg KI med høyt personvern.
  • Let etter KI som har tenåringsfilter eller barnefilter.
  • Lag kjøreregler for barnets bruk av KI.

(Hovedbilde øverst: Shutterstock / Teacher Photo.)