Foto: Shutterstock / Sergii Kozii.

Startside: Kunstig intelligens og barn og unge

Kunstig intelligens er tilgjengelig gratis på nettet og er nyttig på mange områder, men har også negative sider for barn og unge. Les Barnevaktens råd og informasjon til foreldre.

Oppsummert:

  • Kunstig intelligens er rimelig trygg og nyttig for barn og kan sammenlignes med å surfe på nettet. Likevel bør man legge merke til aldersgrenser og at teknologien kan være diskriminerende og partisk, den kan servere faktafeil og noen ganger være risikabel for barn. Skolene er pliktige til å hindre at elevene ser skadelig innhold på skolemaskinene, derfor er barnefilter nødvendig både ved nettsurfing og ved bruk av kunstig intelligens.
  • I denne artikkelen omtaler vi kunstig intelligens som man kan samtale med, det ligger gratis på nettet. Kunstig intelligens leies også ut til skoler og bedrifter, og kan kobles sammen med andre dataprogrammer, noe som gjør at du ikke alltid oppdager at kunstig intelligens er involvert eller at du er utsatt for kommersielle mål.
  • Kunstig intelligens forkortes til AI på engelsk og KI på norsk.
Innhold

Råd til foreldre om kunstig intelligens
Hvordan virker kunstig intelligens?
Eksempler på kunstig intelligens
Aldersgrenser for kunstig intelligens
KI er som en sympatisk professor som er lystløgner
Hvilken etikk er kunstig intelligens utstyrt med?
Hvor kommer dataene fra?
KI i skolen
Er KI i skolen trygt?
Aldersgrense for skole-KI
Personopplysninger kan lekke via lærer-KI
Barn samtaler med robotleker
KI stjeler og kopierer og havner i søksmål
Unicef og kunstig intelligens
EU-regler om KI
Microsofts seks idealer for bruk av kunstig intelligens
Barnevaktens synspunkter om kunstig intelligens
Nyhetsartikler og råd som ikke er skrevet av mennesker
Les også

Råd til foreldre om kunstig intelligens

Ikke røp private opplysninger. Når barnet snakker med kunstig intelligens, samler den inn personopplysninger. Dette kan brukes til å vise reklame eller til å forbedre den kunstige intelligensen. Ansatte i tech-selskapet kan også lese samtalene for å lære hvordan KI-en kan programmeres på en bedre måte. Det er vanskelig å vite i hvilken grad samtalene lagres, benyttes eller deles offentlig uten at du først har lest alt med liten skrift i de kompliserte vilkårene.

Kan gi farlige råd: Kunstig intelligens kan farlige råd innen helse, økonomi og lignende. Barn har ikke nødvendigvis nok livserfaring eller allmennkunnskaper til å forstå at et råd muligens er farlig eller dårlig. Kunstig intelligens kan også fantasere frem fakta som slett ikke er fakta. Kunstige intelligenser er for øvrig programmert til å være høflige, positive og støttende. Svarene gis med stor overbevisning, dette gjør at du stoler på KI-en og lett kan godta påstander og råd som er totalt feil. KI kan også leies ut til skoler og bedrifter som kan legge inn sine egne regler om hvordan KI-en skal svare, det kan ende i upassende samtaler.

Aldersgrensen er 13-18 år: Teknologien der man kan samtale med en kunstig intelligens som har lest «halve internett», er fremdeles ganske ny. Utviklerne har lagt inn en del etiske regler som KI-en skal følge, men KI-en er så gigantisk og komplisert at man kan ikke være 100 prosent trygg på hva KI-en kan finne på å svare brukerne. Da kunstig intelligens kom, var aldersgrensen stort sett 18 år i vilkårene, nå har flere leverandører senket den til 13 år.

Skolene må følge aldersgrensene i gratisversjonene: Utdanningsdirektoratet svarer Barnevakten at skolene må følge aldersvilkårene som er satt i apper og nettsteder. Læreren kan altså ikke be elever benytte kunstig intelligens som har aldersgrense høyere enn elevenes alder. Men når skolen leier inn en kunstig intelligens som har aldersgrense og tilbyr den til elevene på sine egne nettsider, fordufter gjerne aldersgrensen i vilkårene, for nå er det leievilkårene som gjelder. Samtidig er det gjerne slik at med leieavtale vil den kunstige intelligensen samle inn minimalt av personopplysninger fra elevenes samtaler.

Samtidig er det noe usikkerhet om aldersgrensen i vilkårene forsvinner i alle tilfeller i skolene (se lenger ned).

Kunstig intelligens også i andre apper: I de digitale skoleløsningene finnes kunstig intelligens også som en slags plugin i andre apper, for eksempel kan kunstig intelligens oversette tekst inne i skriveappen og ikke bare når man spør den kunstige intelligensen direkte. Slik er det ganske sikkert på din egen datamaskin også, du benytter kanskje kunstig intelligens uten å være klar over det.

Kunstig intelligens kan være tryggere enn gammeldags søk: Utviklerne har lagt inn etiske regler som KI-ene må følge. Med et gammeldags søk kan barna havne på fæle nettsider som inneholder faktafeil, dårlige holdninger, dårlige råd og så videre. Kunstig intelligens har blitt ganske bra til å ta med begge sider av en sak eller til å fortelle at man må være forsiktig. På den måten kan man hevde at KI-er er tryggere enn vanlig surfing eller søk på internett.

Diskriminerende og rasistisk: På den annen side kan kunstig intelligens også være utstyrt med dårlige etiske regler fra utviklerne side. For eksempel Googles kunstige intelligens Gemini gjorde det veldig vanskelig for brukerne i februar 2024 å få bilder av mennesker med lys hud. Ba du KI-en lage bilde av en «black» person, utførte den oppgaven villig. Ba du den lage bilde av en «white» person, nektet den og du ble servert en mild moralpreken mot slike oppgaver. KI-en var altså rasistisk. Det kom så mange klager at Google stengte muligheten for å lage bilder av mennesker mens utviklerne satte seg ned for å skrive nye koder, det vil si ny etikk.

Etikken i KI-er er todelt. Den kan stamme fra alt den har lest på nettet, altså som en automatisk effekt, men den kan også stamme fra instruksene som utviklerne har lagt inn. Mer om etikken lenger ned.

KI-en preges av kulturen til utviklerne: Spør du en amerikansk KI om tips til bryllup, vil den kanskje svare med tips som passer til den amerikanske kulturen, for KI-en har lest flest amerikanske tekster. Slik er det også med etikken som utviklerne har lagt inn manuelt. Kinesisk KI sier for eksempel aldri noe negativt om kommunistpartiet.

Foreldre kan spørre skolen hva slags kultur og etikk som er innebygd i den kunstige intelligensen som elevene får servert. Det er mulig skolen ikke har noe svar å gi, enn så lenge. Det er som å tilby skolebøker uten å vite hvilket forlag eller hvilke forfattere som står bak.

Norske forskere arbeider med å utvikle en kunstig intelligens som bygger på norske tekster, den vil kalles Nora. Forskermiljøet skriver at kunstig intelligens vil ha gjennomgripende effekter på samfunnet og utviklingen domineres av store amerikanske teknologiselskap, stort sett bak lukkede dører. Forskerne skriver: «Vi trenger åpne norske språkmodeller, som i større grad reflekterer skandinavisk kultur og verdier.»

KI er superkult og nyttig! Kunstig intelligens er et nyttig verktøy, KI-er kan skrive dikt, lage filmer, lage bilder, oversette, lage sammendrag, lage datakoder, forenkle språket i tekster, regne, komme med ideer til det ene og andre, for eksempel hvilke steder man bør besøke i Bergen som turist eller hvordan man bør oppføre seg på date.

Elever kommer til å lære mye om ledetekster i årene fremover, det handler om hvordan gi KI-ene presise spørsmål eller oppgaver.

Du selv kan benytte kunstig intelligens når du hjelper barna med leksene, be for eksempel KI-en skrive en quiz om temaet i leksene.

Brukes til svindel: Dessverre kan kunstig intelligens også benyttes til å svindle, mobbe eller komme med falske nyheter. Språket fra utenlandske svindlere blir stadig mer overbevisende. Både barn og voksne må være enda mer bevisste i sine digitale liv for ikke å bli lurt.

Mange snakker om at kildekritikk har blitt mye viktigere etter at kunstig intelligens kom, fordi med kunstig intelligens kan hvem som helst lage overbevisende falske nyheter. Men det er få tips om hvordan man kan utøve kildekritikk når man ser en strøm av innslag i sosiale medier. Man rekker ikke sjekke hva som er sant. Selv om man tviler på noen av innslagene, kan de kanskje likevel feste seg som en slags «sannhet»?

Det finnes ulike typer KI: Mange KI-er er konstruert for å løse smale oppgaver, for eksempel kun tolke røntgenbilder for avsløre armbrudd eller kjenne igjen en stemme. «Generativ KI», for eksempel ChatGPT, er språkbasert og mye smartere enn en smal KI, du kan samtale med slike KI-er som kan utføre kompliserte oppgaver i løpet av sekunder. Det er denne typen AI som denne artikkelen handler om.

Bedrifter og organisasjoner kan leie kunstig intelligens og tilby skreddersydde tjenester på sine nettsider eller i sine apper, kanskje ved å samkjøre KI-en med data som kun bedriften sitter på. Dette betyr at barn kommer til å møte mange tjenester som bygger på kunstig intelligens, og noen av KI-ene har kommersielle mål og er slett ikke nøytrale:

  • Fysiske leker (dukker som snakker)
  • Spill og apper (Snapchat som har en syntetisk snakkevenn)
  • Nettsider (søketjenester)
  • Skole
  • Mobiltelefon
  • Sosiale medier (videoer, bilder og tekster som er laget av AI)
  • Dingser i hjemmet og ellers i samfunnet
  • Kontakt med bedrifter («gode råd» om  finne et par sko som passer deg)
  • Nyhetsartikler (som er helt eller delvis skrevet av AI)

Her er ti tips om kunstig intelligens for foreldre

Hvordan virker kunstig intelligens?

Kunstig intelligens er dataprogrammer. Etter at mennesker har gitt dataprogrammet instruksjoner, kan programmet lære seg selv opp videre ved å lese tekster eller se bilder. Dataprogrammet har lest så mange tekster at det klarer å sannsynliggjøre hva det neste ordet i sitt svar bør være. Eller det har sett så mange røntgenbilder av armbrudd at den raskt klarer å tolke et nytt røntgenbilde.

Da samtalebasert KI kom, ble det hevdet at teknologien kun formulerer svar ut fra hva programmet har lest fra før. Altså at KI-en ikke kopierer tekster og gir deg kopiene, men kun formulerer egne svar. Men det viste seg å ikke stemme. KI kan også ta kopier av tekster og dele disse (se eget avsnitt om dette).

I starten spurte folk: «Hva er kildene til dette svaret som KI-en har gitt meg?» Det var det umulig å ettergå, for kildene kan i prinsippet være hundrevis eller tusenvis. Men etter et par års utvikling av KI-ene kom Google Gemini med en funksjon der du kunne etterprøve påstandene fra KI-en. Gemini tar da et gammeldags Google-søk for å gi deg noe å sammenligne med. Det betyr ikke at Google-treffene er de samme kildene som Gemini brukte for å svare deg. Men det er en slags kontrollfunksjon av påstandene.

Enda senere kom KI-en Perplexity som løper ut på nettet og henter informasjon før den formulerer et svar til deg. Da vises det samtidig hva kildene er.

Enda en variant er at man etter å ha fått svar fra en KI, kan spørre om den kan finne noen gode kilder. Det betyr ikke nødvendigvis at den oppgir kildene som ble brukt i det opprinnelige svaret.

Når Barnevakten stiller KI-er spørsmål om for eksempel aldersgrenser for sosiale medier, kan KI-en oppgi Barnevakten som kilde. Det er i utgangspunktet noe man kan bli stolt av, men viser også en svakhet ved KI-ene. Vi spurte for eksempel KI-en Perplexity om hva som er aldersgrensen for å bruke Perplexity. I stedet for at KI-en undersøkte Perplexitys egne sider, valgte den å hente informasjon fra Barnevaktens sider. Men vi er sekundærkilde i dette tilfellet, for det er Perplexitys egne sider med vilkårstekster som er primærkilden. Hvorfor gikk ikke KI-en til primærilden?

Kunstig intelligens er altså et dataprogram. Deretter har programmet trent seg opp på noe. Oppå der har utviklerne lagt inn etiske regler. Og oppå der igjen kan man se for seg enda en byggekloss, det er hvilke kommersielle mål selskapet har satt seg. Snapchat varslet at samtalene som du har med deres KI kan inneholde reklame som bygger på hva du samtaler om. Vi har ikke fått sjekket om det faktisk ble slik, men det viser hvordan selskaper tenker. Det kan alstå hende at det er tekstreklame inne i enkelte KI-er, eller at de er manipulert til å selge deg noe.

Når en bedrift, for eksempel en skobutikk, kobler sine egne data, for eksempel alle sine skomerker, til en KI som utad har som oppgave å veilede folk å finne gode sko, da har KI-en et kommersielt mål om å selge deg butikkens sko.

Vi mistenker ikke de store KI-ene å ha den typen kommersielle mål. Deres kommersielle mål er heller å ta betalt for utleie av KI-en.

Eksempler på kunstig intelligens

Muligens har enkelte norske skoler denne KI-en i bruk:

  • Mistral
  • Randabergskolen var en av de aller første med KI for elever i Norge. I april 2024 er situasjonen slik:  Randabergskolen har en løsning som støtter OpenAI, Azure OpenAI, Anthropic, Hugging Face, Google og OpenRouter, ifølge et innlegg på Facebook av læreren som er ansvarlig for løsningen; Odin Nøsen.
  • Randabergskolen tilbyr en rekke chatboter som du kan teste.
Aldersgrenser for kunstig intelligens
  • ChatGPT: 13 år – foreldre må i tillegg si ok.
  • Gemini:  13 år – lavere ved samtykke. 
18 år for Gemini Advanced.
  • Perplexity: 13 år – lavere ved samtykke.
  • Microsoft Copilot: 13 år.

Vilkårstekstene er svært upedagogiske med mange lenker til nye vilkår. Ulike tjenester fra et og samme tech-selskap kan ha «overlappende» vilkår som er vanskelig å tolke. Listen over er aldersgrensene slik Barnevakten tolker dem inntil videre.

Da kunstig intelligens kom på markedet til folk flest, lå aldersgrensen som regel på 18 år, selskapene har senere gått ned til 13 år.

Som en professor som er lystløgner

Barnevakten testet i 2023 den språkbaserte kunstige intelligensen som leveres av Openai, altså ChatGPT. Den er imponerende, men inneholder også feil som fremstilles som fakta.

Vi testet ChatGPT blant annet med noen juridiske spørsmål, og da viste den til flere paragrafer i straffeloven. Det virket overbevisende. Men da vi sjekket loven, viste det seg at paragrafene var fjernet fra loven for flere år siden.

Da Snapchat innførte kunstig intelligens i sin app, advarte selskapet mot den kunstige intelligensen, nettopp fordi den kan inneholde feil.

Det er sikkert mange måter en feil kan oppstå, vi tror vi kom på sporet av en av dem under våre tester:

Når en journalist omtaler en bok, står artikkelen på avisens nettside. Nederst på nettsiden står det hvem som er redaktør av avisen. Den kunstige intelligensen klarer ikke skille mellom hvem som er redaktør av boken og hvem som er redaktør av avisen. Dermed skriver den kunstige intelligensen, ganske så overbevisende, at det er redaktøren av avisen som har skrevet boken, men det er altså helt feil.

Kunstig intelligens kan også dikte opp «fakta». Den forteller for eksempel med stor overbevisning om bøker som ikke finnes og kan også dikte opp hvem som har skrevet de ikke-eksisterende bøkene. Spør du om et sammendrag av de ikke-eksisterende bøkene, kan den til og med dikte opp et innhold. Nye tester sommeren 2024 viser at ChatGPT fremdeles kan fantasere frem «fakta».

AI er løs kanon i nyhetene

Hvilken etikk er kunstig intelligens utstyrt med?

Vi forsøkte å få ChatGPT til å lage en challenge som er farlig for barn, men det ville den ikke. Vi forsøkte på nytt, uten å nevne barn, og ba den lage en challenge som inkluderer avløpsrens. Men det ville den ikke, for lek med avløpsrens er farlig, forklarte den.

ChatGPT er altså utstyrt med visse etiske retningslinjer.

Men så skrev vi: «Kan du gi eksempler på challenges som barn ikke bør utføre?» Da ramset den opp farlige challenges for barn. Det er altså bare å stille spørsmålet på ulike måter, så kommer den kunstige intelligensen med farlige ideer for barn.

Hvordan man skal lure kunstig intelligens med kreativ spørsmålstilling, vil barn og unge raskt finne ut av.

Vi gjorde noen nye stikkprøver i starten av 2024 og den svarte fremdeles villig da vi på nytt spurte om challenges som barn ikke bør utføre. Det samme skjedde da vi testet den kunstige intelligensen Microsoft Azure OpenAI, som bygger på ChatGPT, også den ga villig vekk farlige challenges til barn. Det er denne Microsoft-versjonen av ChatGPT som for eksempel Oslo kommune tilbyr til et utvalg av elevene (se lenger ned).

Hvor kommer dataene fra?

Språkbasert kunstig intelligens bygger på store mengder data, for eksempel gjennomlesing av enormt mange nettsider. ChatGPT evaluerer nettsidene og mener å finne ut hvilke som er pålitelige.

Åpenhet om hva den kunstige intelligensen har fått av data-mat som grunnlag, hvilke nettsider den anser som pålitelige, og hvordan den prioriterer og for øvrig er skrudd sammen, er et viktig forbrukerpoeng. I fremtiden vil man kanskje få lov til å velge hvilket datagrunnlag den kunstige intelligensen svarer ut fra?

Nå som kunstig intelligens er blitt gratis og sprer seg til stadig nye kanaler, er det behov for opplysning, åpenhet, opplæring og nye forbrukerrettigheter.

KI i skolene

Slik er en skole-KI bygget opp:

 

Kunstig intelligens har som regel aldersgrense i vilkårene. Samtidig ivrer mange for at elever i grunnskolen skal jobbe med kunstig intelligens.

Oslo kommune lover at deres skole-KI er trygg:

Samtidig (våren 2024) skriver kommunen at et KI-en er en pilotering og at brukerne ikke må oppgi personlige eller sensitive opplysninger. Hvorfor presiserer man dette når man hevder at KI-en ikke samler inn personopplysninger?

Det er nok fordi: «Microsoft Azure OpenAI Service behandler ledeteksten på sine servere i Europa og de bevarer ledetekster hos seg i opptil 30 dager, med den hensikt og begrunnelse å hindre misbruk av tjenesten. De bruker ikke ledeteksten til noe, som for eksempel til å trene algoritmen.»

Aldersgrense for KI i skolen

Barnevakten spurte salgsavdelingen i Microsoft om det er aldersgrense for å benytte deres AI. Svaret var at det er aldersgrense 13 år. Vi spurte om aldersgrensen forsvinner når elevene bruker skolelisenser. Svaret var at aldersgrensen gjelder uansett.

Vi spurte så det norske selskapet Skolebot som tilbyr Microsoft Azure OpenAI. Skolebot svarte at de ikke finner noen aldersgrense i sin avtale med Microsoft. Skolebot henviser også til to nettsider fra Microsoft: Spørsmål om aldersgrense i Azure OpenAI, og avtalevilkår.

Bildet under viser at Oslo kommune kaller deres KI-satsning for pilotering. Til høyre sier Microsoft til Barnevakten at aldersgrensen er 13 år.

Vi spurte Oslo kommune om det er aldersgrense 13 år i avtalen som kommunen har med Microsoft Azure OpenAI, men svaret var noe unnvikende. Kommunen svarte: «Vår KI-løsning kan kun brukes av ansatte og elever i ungdomsskolen og i videregående.»

Svaret ble ikke knyttet til noen eventuelle aldersvilkår fra Microsoft. Kommunen åpnet så for at yngre elever kan benytte Microsoft Azure OpenAI, dersom regeleverket tillater det. Kommunen henviste til Udirs veileder som sier: «Ta hensyn til elevenes alder og modenhet, og vis særlig forsiktighet overfor yngre barn. Benytt de tekniske mulighetene som finnes til å tilpasse verktøyene for best mulig pedagogisk bruk.» Om det er aldersgrense i vilkårene fra Microsoft er dermed fremdeles uklart. Barnevakten har på nytt bedt kommunen svare på dette konkret.

Oslo kommune har ikke selv satt noen aldersgrense for sine elever så langt Barnevakten kjenner til, bortsett fra:

  • Byråden for utdannelse skrev i Aftenposten 13. februar 2024 at elever på barneskolene ikke skal få kunstig intelligens.
  • Kommunen opplyste på en samling for alle FAU-ere i Oslo 13. mars 2024, altså fire uker etter byrådens avisinnlegg, at 1. trinn og 2. trinn ikke skal få kunstig intelligens.
  • Samtidig har kommunen kjøpt inn 92.000 lisenser, som dekker elever også i 1. og 2. trinn, så langt Barnevakten forstår.

Så langt er det ingen krav om aldersgrense fra Utdanningsdirektoratet.

Er KI i skolen trygt?

Det er heller ingen krav fra Utdannningsdirektoratet om hvilken kvalitet skole-KI-er skal ha som et minimum med hensyn til for eksempel feilprosent innen fakta eller om KI-ene må utstyres med barnefilter.

Er det trygt for barn å benytte kunstig intelligens i skolen?

KI kan anbefale hjemmebrent til barn

KI i skolene er ikke en nøytral teknologi

KI kan på virke deg med skjulte budskap

Språkbasert kunstig intelligens er altså utstyrt med etiske regler som er programmert inn av mennesker, men det er ikke åpenhet om hvilke etiske regler det er. Når det gjelder bruk av KI i skolen mener Barnevakten at KI-ene først må testes av en nøytral part for å finne ut hvor trygg den er og hvilken etikk den er utstyrt med.

Seks steg til trygg KI i skolen

I kinesiske skoler har elevmaskinene kamera med ansiktstolkning som følger med på om elevene blir trøtte, i tilfelle fyres det av en morsom video for å vekke dem litt før matematikkoppgavene fortsetter.

Ansiktsgjenkjenning står på nei-listen til Datatilsynet når det gjelder norske skoler, men det kan likevel hende at elevene blir utsatt for kunstig intelligens via læringsappene. På den ene siden er det positivt at læringsappen forstår om eleven bør trene på spesielle oppgaver, men samtidig betyr det at det samles inn flere opplysninger om eleven.

Kunstig intelligens tilbys som nevnt gratis på nettet og kan i en del tilfeller utføre lekser for elever, også på norsk. Se Barnevaktens test av kunstig intelligens. Se også vår omtale av søkemotoren You.

Kunstig intelligens er altså på vei inn i skolene. Blant annet Oslo kommune har innført det på en rekke skoler, noe som en foreldregruppe er svært kritisk til.

Den kunstige intelligensen bygger gjerne på svært mange nettsider og digitale bøker. Men egenopplæringen stanser ikke der, den fortsetter gjerne sin læring ved å samle inn opplysninger fra brukerne. Bortsett fra at ChatGPT som nevnt lover å ikke samle inn personopplysninger når en skole leier inn tjenesten.

Barnevakten mener at staten må opprette et offentlig tilsyn som kan regulere på hva slags kunstig intelligens som barn blir utsatt for. Kunstig intelligens kan samle inn personopplysninger om elevene, være utstyrt med ulike former for etikk, være laget i USA eller Kina, brukes til å lage profiler av elevene eller gi hallusinerte fakta som altså slett ikke er fakta.

Hvorfor er aldersgrensen 18 år i gratisversjonen?

I regjeringens digitale strategi for skolen nevnes ChatGPT, men ChatGPT har i vilkårene aldersgrense 13 år i tillegg at det kreves samtykke fra foreldrene når barnet er under 18 år. I praksis er altså aldersgrensen 18 år.

Det finnes som nevnt en måte der skolen kan omgå aldersgrensen, skolen kan leie API-tjeneste fra OpenAI (som eier ChatGPT). Slik blir det skolen som oppretter brukerkonto i den kunstige intelligensen. Dermed gjelder det andre vilkår. Så kan elevene snakke med den kunstige intelligensen via et chat-felt på skolens nettside og ikke direkte i chat-feltet som ChatGPT viser på sine sider.

Skolen kan eventuelt leie inn Microsoft Azure OpenAI, som bygger på ChatGPT, og som har fått et innholdsfilter fra Microsoft på toppen. Det er denne varianten som Oslo kommune leier inn. Men innholdsfilteret er ikke et barnefilter, så langt Barnevakten forstår. For som nevnt kan Microsoft Azure OpenAI gi fra seg farlige aktiviteter (challenges) til barn, det har Barnevakten testet.

Foreldre kan i spørre skolen hvorfor ChatGPT har aldersgrense 18 år i praksis, og hvorfor Microsoft Azure OpenAI har aldersgrense 13 år, og om skolen kan garantere at deres kunstige intelligens er trygg for barn.

Skolen kan med egne ledetekster styre KI-en til en viss grad, for eksempel bestemme at språket blir enklere for barn. Men tjenesten blir ikke nødvendigvis helt trygg av den grunn. Og de etiske filterne som utviklerne legger inn, er ikke det samme som et barnefilter.

Det kommer stadig nye kunstige intelligenser på markedet og med tiden vil det ganske sikkert være mulig å kjøpe inn massevis med barnefiltre for ulike aldre.

Personopplysninger kan lekke via lærer-KI

Kunstig intelligens kan også benyttes av lærere, de kan sende inn elevenes oppgaver til kunstig intelligens for å få hjelp til retting eller annet. Men da kan altså elevenes tekster bli brukt til videre opplæring av den kunstige intelligensen, dersom læreren benytter en gratisversjon. Foreldre kan spørre skolen hvilken politikk den har ved alle sider ved kunstig intelligens og hvordan dette kan påvirke elevene på ulike måter, for eksempel innen personvern.

Barn samtaler med robotleker

Barn vil møte kunstig intelligens i stadig nye leker eller på nettsteder. I 2022 skrev vi om robotleker som kan føre samtaler med barna. Men du vet ikke hva den kunstige intelligensen har fått av data, så du vet ikke hva samtalene vil gå ut på.

Kunstig intelligens kan analysere barns oppførsel og respondere på det, på en god eller dårlig måte. Det gjelder å være bevisst når man benytter en tjeneste som bygger på kunstig intelligens. Problemet er at man sjelden vet at man er utsatt for kunstig intelligens eller hvem som står bak den kunstige intelligensen i hvert tilfelle.

KI og søksmål

Da språkbasert (generativ) kunstig intelligens ble en tjeneste som alle kunne benytte via internett høsten 2022, ble teknologien forklart med at AI-en hadde lest enormt mange nettsider og kunne formulere sine egne setninger ut fra dette. Den superenkle forklaringen er at teknologien klarer å «gjette» hva det neste ordet bør være når det formulerer sine svar til deg.

Men i slutten av desember 2023 gikk avisen New York Times til søksmål mot OpenAI som eier ChatGPT-utgavene. Det viser seg nemlig at ChatGPT ikke bare har lest enorme tekstmengder, men har også tatt kopi av tekstene. Bildet under er hentet fra søksmålet, rød tekst er identisk.

Når den kunstige intelligensen sitter på kopier av lange avisartikler, og ikke bare har lest artiklene for trene seg opp, da kan det hende at den også sitter på kopier av samtalene som du eller barna har med den. Det er nok et varsko om å være forsiktig med hva man deler med en kunstig intelligens.

Søksmålet til New York Post rettes mot eierne av den kunstige intelligensen. Men hva hvis du kopierte teksten som den kunstige intelligensen spyttet ut, og at du så delte den på internett? I teorien kunne da New York Post ha gått til søksmål mot deg. Det skal nok mye til for at store selskaper retter økonomiske krav mot enkeltpersoner, men det skjer nå og da for eksempel ved bildetyveri.

En viss økonomisk risiko er det altså:

Unicef og kunstig intelligens

FNs barneorganisasjon Unicef ønsker barnevennlig kunstig intelligens (ekstern lenke) og jobber med barnevennlige retningslinjer.

Organisasjonen skriver at kunstig intelligens (AI) er innovativt, men at det også utgjør en risiko for barn og deres rettigheter. Det er snakk om privatliv, trygghet og sikkerhet. De fleste som utvikler AI, nevner sjelden noe om barn og deres rettigheter.

Unicef håper at både nasjonale myndigheter og private selskaper rundt omkring i verden kan bli mer bevisst på barnas rettigheter og behov ved kunstig intelligens.

Organisasjonen går inn for tre grunnleggende rettigheter for barn når det gjelder kunstig intelligens (AI):

  • AI policies and systems should aim to protect children
  • They should provide equitably for children’s needs and rights
  • They should empower children to contribute to the development and use of AI

Barnevaktens tolkning av disse tre punktene oppsummeres slik: Beskyttelse, likhet og kunnskap. Kunstig intelligens skal beskytte barn, sørge for at barn seg i mellom ikke forskjellsbehandles og gjøre det mulig at barn får mer kunnskap om kunstig intelligens.

I følge en annen rapport fra Unicef er også de seks punktene nedenfor viktige i det videre arbeidet:

1. Uphold child rights
2. Prioritize children’s development and well-being
3. Protect and nurture children’s data agency
4. Ensure transparency, explainability and accountability for children
5. Prioritize safety, protection and AI literacy of children
6. Prioritize equity and inclusion of children

Her nevnes altså «transparency» som et viktig punkt, Barnevakten forstår det slik at det er viktig at barn, foreldre og andre får vite hvordan AI-en er skrudd sammen i det enkelte tilfelle. Og det bør forklares slik at også barn forstår.

Les mer om de seks punktene her

EU-regler om KI

EU har retningslinjer for kunstig intelligens; Artificial Intelligence Act. De går ut på at ulike KI-er rangeres etter hvor risikable de er for mennesker, og så har man ulike regler for disse. KI-er plasseres i fire kategorier:

  • Ikke akseptabelt: Slike KI-er forbys. Eksempel: Sosial score slik man har i Kina.
  • Høy risiko: Må gå gjennom mange sjekkpunkter før de kan sendes ut på markedet.
  • Begrenset risiko: Må varsle brukerne. Eksempel: Deep fake, chatboter.
  • Minimal risiko: Ingen restriksjoner.
Microsofts seks idealer for bruk av kunstig intelligens

Microsoft har satt opp seks idealer for kunstig intelligens:

  • Fairness: AI systems should treat all people fairly.
  • Reliability & Safety: AI systems should perform reliably and safely.
  • Privacy & Security: AI systems should be secure and respect privacy.
  • Inclusiveness: AI systems should empower everyone and engage people.
  • Transparency: AI systems should be understandable.
  • Accountability: People should be accountable for AI systems.

Men det er umulig for foreldre å sjekke om den nye robotleken til barna er blitt laget med slike idealer eller om produsenten kun har gått etter billigste løsning som kan gi størst fortjeneste. En del leker og spill er for øvrig produsert i ikke-demokratiske land som kan ha en annen kulturell tilnærming til forbrukerrettigheter, barns rettigheter, personvern og så videre.

Barnevaktens synspunkter om kunstig intelligens
Nyhetsartikler og råd som ikke er skrevet av mennesker

KI benyttes nå av norske aviser blant annet til å skrive korte versjoner av menneskeskapte artikler.

Les også

(Denne artikkelen ble publisert 14. desember 2022 og har blitt oppdatert flere ganger. Hovedbilde øverst: Shutterstock / Sergii Kozii.)