
Startside: Kunstig intelligens og barn og unge
KI finnes nå i sosiale medier, skole, søkemotorer, telefoner, leker og KI-kjærester. Det er mye nyttig og moro med KI, men KI betyr også risiko som foreldre bør være klar over.
Denne artikkelen handler stort sett om risikoen med kunstig intelligens (KI), ikke om alt som er moro eller nyttig med KI. Artikkelen handler mest om samtalebasert KI som kan gi deg svar på spørsmål eller hjelpe deg med digitale oppgaver.
Teksten ble publisert 14. desember 2022 og har vært gjennom flere oppdateringer, den ble sist oppdatert 8. april 2026. (Hovedbilde øverst: Shutterstock / Sergii Kozii.)
Hva er Barnevaktens viktigste råd innen kunstig intelligens (KI)?
- Ikke fortell hemmeligheter til KI-ene, du vet ikke hvor dine samtaler havner eller hva de brukes til.
- Finn ut hvor du eller barnet ditt er i kontakt med KI slik at dere kan tilpasse dere den enkelte situasjon. Dere kan være i kontakt med KI uten at dere vet det, i alt fra apper til ditt besøk hos fastlegen.
- Ikke tro på alt KI-en sier, det er bare et dataprogram, men bruk gjerne KI når det gir nytte og har godt personvern.
Er KI risikabelt for barn og unge?
Ja, KI inneholder en viss risiko, det handler om personvern, faktafeil, upassende innhold, seksualiserte samtaler, dårlige råd og så videre.
Risikoen ligner på nettet for øvrig, og hva man leser eller ser der, for KI-en er lært opp på hva som finnes på nettet. Det er en viss risiko uansett, enten det er nettet, apper, spill eller KI.
Men siden bruk av KI gjerne skjer i en løpende samtale, kan man mene at KI er mer risikabelt enn for eksempel en nettside som ikke gir nye responser tilbake.
Hvor møter barn KI?
Barn kan møte KI her:
- Fysiske leker (dukker som snakker)
- Spill og apper (Snapchat som har en syntetisk snakkevenn)
- Nettsider (søketjenester)
- Skole (spørre KI om informasjon, be KI oversette tekster, bruke KI-styrte apper som handler ut fra elevens oppførsel)
- Mobiltelefon (KI som har tilgang til både e-poster og kalender)
- Sosiale medier (videoer, bilder og tekster som er laget av KI)
- Dingser i hjemmet og ellers i samfunnet
- Kontakt med bedrifter («gode råd» om å finne et par sko som passer deg)
- Nyhetsartikler (som er helt eller delvis skrevet av KI)
Noen av KI-ene har kommersielle mål og er slett ikke nøytrale. Bedrifter kan leie kunstig intelligens som bruker bedriftens egne data for å gi deg svar.
Hva er aldersgrensen for å bruke KI?
Kunstig intelligens har som regel aldersgrense i vilkårene på minst 13 år fordi de samler inn persondata. Noen KI-er kan ha 18 år i vilkårene, fordi de tilbyr seksualiserte samtaler og bilder.
I Norge (per mars 2026) finnes det ikke lovpålagte aldersgrenser for bruk av KI-er, altså aldersgrenser som kommer i tillegg til hva som står vilkårene. I EU har man DSA-regler som krever at store plattformer må ta hensyn til barnets modenhet. Det kan bety at når en plattform tilbyr en KI, kan det hende at reglene tvinger plattformen til å enten sette aldersgrense eller benytte et barnefilter. Men det er litt for tidlig å si hvordan reglene vil slå ut.
Når en kommune leier inn en KI for bruk i skolen i Norge, forsvinner som regel aldersgrensen, ansvaret for personvern og sikkerhet overlates til kommunen. For eksempel Googles KI fikk aldersgrense null år fra august 2025 ved bruk i skolen. Hver skole setter altså selv aldersgrensen for bruk av KI, på noen skoler i Norge starter man med KI allerede i første trinn.
Det finnes KI-er gratis tilgjengelig på nettet, utenfor skoleavtalene. Gratisversjoner har som regel dårlig personvern, lærere kan ikke be elever benytte slike. Selv om personvernet skulle være bra nok, må må skolene uansett følge aldersgrensene i gratisversjonene. Utdanningsdirektoratet svarer Barnevakten at skolene må følge aldersvilkårene som er satt i apper og nettsteder. Læreren kan altså ikke be elever benytte kunstig intelligens som har aldersgrense høyere enn elevenes alder.
Men når skolen leier inn en kunstig intelligens som har aldersgrense og tilbyr den til elevene på sine egne nettsider, fordufter gjerne aldersgrensen i vilkårene, for nå er det leievilkårene som gjelder. Med leieavtale vil den kunstige intelligensen samle inn minimalt av personopplysninger fra elevenes samtaler.
Ikke tro at en KI er trygg bare fordi det ikke er noen aldersgrense i vilkårene. KI-en Deepseek har lenge ikke hatt noen aldersgrense, bortsett fra at barn må la foreldrene lese vilkårene, samtidig er det mange som advarer mot Deepseek.
Aldersgrenser for ulike KI-er er komplisert å finne ut av, for den enkelte KI kan leveres i ulike utgaver og da med ulike aldersgrenser. KI-selskapene kommer også stadig med nye løsninger og da kan det hende at aldersgrensen endres samtidig. Aldersgrensen i vilkårene kan også variere fra land til land. Aldersgrensen for Microsoft Copilot er for eksempel 14 år i Østerrike, 15 år i Frankrike og 13 år i Norge. Dette er altså vilkårene som er satt av Microsoft, antagelig basert på personvernalderen i det enkelte land.
Dersom KI-en vet at brukeren er under 18 år, vil noen selskaper justere tjenesten slik at den blir litt mer barnevennlig. Microsoft Copilot lover for eksempel at barn under 18 år ikke skal få persontilpasset reklame. Videre lover selskapet at KI-en ikke skal trene seg opp på barnets samtaler med KI-en. Med andre ord bør du som er voksen sjekke om din bruk av Microsoft Copilot blir brukt til opptrening av KI-en.
Vilkårstekstene er svært upedagogiske med mange lenker til nye vilkår. Ulike tjenester fra et og samme tech-selskap kan ha «overlappende» vilkår som er vanskelig å tolke. Listen over er aldersgrensene slik Barnevakten tolker dem inntil videre.
Aldersgrenser i vilkårene til KI:
- ChatGPT: 13 år – foreldre må i tillegg si ok. Vilkår.
- Google Gemini: Ulike aldersgrenser for ulike løsninger. 13 år i utgangspunktet, 18 år for jobbkontoer.
- Perplexity: 13 år
- Microsoft Copilot: Ulike aldersgrenser for ulike løsninger. I utgangspunktet er aldersgrensen 18 år, slik Microsoft skriver her: «Copilot is generally available to all users over the age of 18. » Men så fortsetter vilkårene med at man kan også være bare 13 år, det gjelder for eksempel for norske barn.
Se flere aldersgrenser her.
Hva kan KI brukes til?
Det er nesten ikke grenser for hva KI kan benyttes til, her er noen eksempler: Produsere bilder, filmer, dikt og sanger. Lese lange rapporter og gi et referat. Oversette. Lage datakoder. Gi deg svar – gode eller dårlige – på alt mulig du kan spørre om.
KI kan også være din sekretær i hverdagen og bestille flybilletter eller svare på e-poster for deg. Men jo mer du lar KI være din sekretær, desto mer er personvernet utsatt.
Blant profesjonelle benyttes KI innen medisin, forskning og så videre. KI kan også brukes til å overvåke andre, men det utdyper vi ikke her. Og videre kan KI effektivisere oppgaver i bedrifter og myndigheter, men det kan samtidig bety at din jobbsøknad eller trygdesøknad blir behandlet av KI, noe som kan slå ut enten positivt eller negativt.
Dessverre kan KI også brukes til svindel og mobbing. For eksempel er det stor motstand mot avklednings-KI (per mars 2026). KI kan også benyttes som kunstige kjærester, noe Barnevakten advarer mot.
Men husk at KI også er superkult og nyttig! Våre svar handler mest om risikoen med KI og ikke om alt som er bra med KI. Husk at kunstig intelligens er også er et nyttig verktøy.
Elever kommer til å lære mye om ledetekster i årene fremover, det handler om hvordan gi KI-ene presise spørsmål eller oppgaver.
Du selv kan benytte kunstig intelligens når du hjelper barna med leksene, be for eksempel KI-en skrive en quiz om temaet i leksene.
Kan dere gi meg eksempler på KI-er?
Det finnes mange flere enn de som listes opp nedenfor, for eksempel ChatGPT finnes i ulike varianter. Noen tilbys også som en del av andre tjenester og er for eksempel en naturlig del av sosiale medier eller søk.
Husk for øvrig at KI-er leveres både i gratisversjoner og i betalte versjoner, sistnevnte har som regel bedre personvern og er kanskje også mer presis si sine svar.
- ChatGPT (Leveres av selskapet OpenAI.)
- Perplexity (Leveres av Perplexity)
- Claude (Leveres av Anthropic)
- Gemini (Leveres av Google)
- Skolebot (Leveres av Schoolhub AS. Bruker språkmodeller fra amerikanske ChatGPT via Microsoft Azure OpenAI.)
- Copilot (Microsoft)
- Grok (xAI / Elon Musk)
- Mistral
- LLaMA (Meta) – åpen kildekode
- Midjourney og DALL-E (KI-er som lager bilder)
- Siri, Google Assistent og Alexa (stemmeassistenter)
- Google Translate (oversetter-KI)
- Anbefalingssystemer (som på Netflix, Spotify og Youtube)
- Lumo (Hevder å ha godt personvern selv om KI-en er gratis. Tjenesten leveres av Proton fra Sveits, selskapet er kjent for å være opptatt av personvern.)
Bruker elevene KI på skolen?
Ja, mange skoler lar elevene benytte kunstig intelligens. Skolene er pliktige til å hindre at elevene ser skadelig innhold på skolemaskinene, derfor er barnefilter nødvendig både ved nettsurfing og ved bruk av kunstig intelligens.
Noen KI-er er villige til å lage toppløsfilmer (det er trygt å klikke på lenken…). Ganske sikkert tilbys ditt barn en seriøs KI på skolen, men det er ikke sikkert at din kommune har sørget for et godt nok barnefilter filter hverken for internett eller for KI-en.

Hvor mange KI-er finnes det på skolen?
I de digitale skoleløsningene finnes kunstig intelligens også som en slags plugin i andre apper, for eksempel kan kunstig intelligens oversette tekst inne i skriveappen og ikke bare når man spør den kunstige intelligensen direkte. Slik er det ganske sikkert på din egen datamaskin også, du benytter kanskje kunstig intelligens uten å være klar over det.
Hvorfor bør man ikke røpe private opplysninger til en KI?
Når barnet snakker med kunstig intelligens, samler KI-en inn personopplysninger. Dette kan brukes til å vise reklame eller til å forbedre den kunstige intelligensen. Ansatte i KI-selskapet kan i noen tilfeller også lese samtalene for å lære hvordan KI-en kan programmeres på en bedre måte. Det er vanskelig å vite i hvilken grad samtalene lagres, benyttes eller deles offentlig. I USA er det flere søksmål som gjelder dårlig personvern.
I andre sammenhenger kan man be et selskap slette opplysninger, men det er umulig med KI-teknologien. Det kan sammenlignes med en menneskehjerne. Hvis noen ber deg glemme noe, så kan ikke du garantere at du har glemt opplysningene i morgen.
KI-er som leies inn i skoler, har gjerne mye bedre personvern enn gratis-KI-er som du finner på nettet.
Men personvern i store digitale skoleløsninger er innviklet. Det kan hende at en KI følger med i løsningen, men er likevel holdt utenfor personvernavtalen. Da må kommunen betale for å få lisens også for KI-en for at den skal bli omfattet av personvernet, dette har lærere fortalt Barnevakten. Og det samme opplevde vi Barnevaktens kontorløsning fra Microsoft, den innebygde KI-en Copilot lå utenfor personvernet og vi måtte betale for å få bedre personvern. Dette ble vi tilfeldigvis gjort oppmerksom på av en tredjepart.
Vårt råd er derfor: Selv om barnet benytter en skole-KI, som i utgangspunktet skal ha bra personvern, så bør barnet ikke røpe private opplysninger til den.
Når du stiller kunstig intelligens et spørsmål og får et svar tilbake, er du antagelig bevisst på at du faktisk benytter en kunstig intelligens. Dermed kan du holde tilbake private opplysninger. Noe annet er det hvis du ber telefonen fikse en oppgave for deg, da er du kanskje ikke like bevisst på at det kan rulle en KI gjemt i bakgrunnen. Det kan hende telefonene våre kommer til å vite svært mye om oss de neste årene fordi vi vil benytte KI-tjenester til mye forskjellig, fordi det er lettvint. Når du lar KI boltre seg fritt i filene dine, fordi du ønsker et lettvint liv med mye hjelp fra KI-en, øker samtidig risikoen for at opplysninger som du ikke vil at andre skal se, lekker ut.
Alt dette betyr at du må være forsiktig med hva du samtaler med KI-er om. Du bør også være bevisst på å ikke røpe andres private opplysninger.
KI brukes også til å lage referater av jobbmøter, for eksempel skjermmøter. Også fastleger har tatt i bruk KI, fastlegen tar opp samtalen med deg og KI lager så et referat av opptaket i det du går ut døren, slik sparer fastlegen tid. Men generelt er det et problem med KI-er at de plutselig kan fantasere og legge noe inn i referatet som du overhodet ikke har sagt, men forhåpentligvis oppdager legen dette.
Og forhåpentligvis forstår KI-en, enten det er hos legen eller i skjermmøte på jobben, at du uttrykker deg ironisk: «Nå er jeg så lei av å være forkjøla at jeg holder på å dø!» Det betyr ikke at du faktisk mener at du er døden nær.
- Eksempel på gratis KI som hevder å ha bra personvern.
Er det risikabelt å bruke KI som en rådgiver?
Kunstig intelligens kan farlige råd innen helse, økonomi og lignende, slik også nettsider kan gjøre. Barn har ikke nødvendigvis nok livserfaring eller allmennkunnskaper til å forstå at et råd muligens er farlig eller dårlig. Kunstig intelligens kan også fantasere frem fakta som slett ikke er fakta.
KI-er er for øvrig programmert til å være høflige, positive og støttende. Svarene gis med stor overbevisning, noen ganger kan den til og med påstå at den er et menneske, dette kan gjøre at man stoler på KI-en og lettere kan godta påstander og råd som er totalt feil.
Det finnes eksempler på at KI-er har oppfordret barn til å ta selvmord eller bruke narkotika.
KI kan også leies ut til skoler og bedrifter som kan legge inn sine egne regler om hvordan KI-en skal svare, det kan ende i upassende samtaler.
Men det må samtidig nevnes at KI-er ganske flinke til å være forsiktige eller gi advarsler. Utfordringen er at det er så mange KI-er og at de er skrudd sammen og trent forskjellig, så det er vanskelig å gi ett råd som passer alle.
Det har vist seg at sikkerheten i KI-ene blir svakere i lange samtaler. Det er som om KI-en blir «sliten». Et tips er derfor å slette samtaler etter en stund og heller starte nye samtaler.
Stemmer det at KI diskriminere og være rasistisk?
Det er fint at KI er utstyrt med visse etiske regler som virker gode, men KI også være utstyrt med dårlige etiske regler fra utviklernes side. For eksempel Googles kunstige intelligens Gemini gjorde det veldig vanskelig for brukerne i februar 2024 å lage bilder som viser mennesker med lys hud. Ba du KI-en lage bilde av en «black» person, utførte den oppgaven villig. Ba du den lage bilde av en «white» person, nektet den og du ble servert en mild moralpreken mot slike oppgaver. KI-en var altså rasistisk. Det kom så mange klager at Google stengte muligheten for å lage bilder av mennesker mens utviklerne satte seg ned for å skrive nye koder, det vil si ny etikk.
Noe av det samme skjer med ChatGPT5.
Etikken i KI-er er todelt. Den kan stamme fra alt den har lest på nettet, altså som en automatisk effekt, men den kan også stamme fra instruksene som utviklerne har lagt inn.
Hva slags kultur er innebygget i KI-er?
Spør du en amerikansk KI om tips til bryllup, vil den kanskje svare med tips som passer til den amerikanske kulturen, for KI-en har lest flest amerikanske tekster. Slik er det også med etikken som utviklerne har lagt inn manuelt. Kinesisk KI sier for eksempel aldri noe negativt om kommunistpartiet.
Foreldre kan spørre skolen hva slags kultur og etikk som er innebygd i den kunstige intelligensen som elevene får servert. Det er mulig skolen ikke har noe svar å gi, enn så lenge. For utviklerne vil ikke nødvendigvis opplyse hvilke tekster som KI-en er trent opp på. Kanskje fordi KI-en også har trent seg opp på en del tekster uten lov.
Noen KI-er tilpasser også sine svar etter din IP-adresse, altså hvor du befinner deg i verden. KI-er kan ha fått regler om å være forsiktig med religiøse spørsmål i enkelte land. En del KI-er er blitt flinke til å svare ut fra norsk sammenheng når du stiller spørsmål på norsk. Spør du på engelsk, kan du kanskje få et annet svar.
Uansett; å gi elevene KI, er som å tilby skolebøker uten å vite hvilket forlag eller hvilke forfattere som står bak – og uten å vite hva som står skrevet i bøkene som elevene får utdelt.
Norske forskere arbeider med å utvikle en kunstig intelligens som bygger på norske tekster, den vil kalles Nora. Forskermiljøet skriver at kunstig intelligens vil ha gjennomgripende effekter på samfunnet og utviklingen domineres av store amerikanske teknologiselskap, stort sett bak lukkede dører. Forskerne skriver: «Vi trenger åpne norske språkmodeller, som i større grad reflekterer skandinavisk kultur og verdier.»
Den kinesiske KI-en Deepseek har åpen kildekode, det betyr, hvis du er teknisk flink, at du kan laste den ned til din egen maskin. Så kan du kjøre den der uten noen kobling til internett. I teorien skal det visstnok være mulig å fjerne koder som favoriserer det kinesiske kommunistpartiet. Men andre sier at når Deepseek har trent seg opp på mange kinesiske tekster som allerede er sensurert og som stiller seg positive til kinesiske myndigheter, da er det veldig vanskelig å fjerne kulturen som er innbakt. Slik vil det være med KI-er også fra andre land, KI-ene er preget av 1) hva den har lest og 2) hva utviklerne legger inn av koder for oppførsel.
Det finnes tester av KI-er og mange av dem ligger litt til venstre politisk. Men noen er også liberale, for eksempel KI-en som Musk leverer, ble brukt til å lage falske nakenfilmer av gjenkjennbare personer. Den er også programmert til å være frekkere enn andre KI-er, og var en stund litt Hitler-vennlig.
Kan KI brukes til mobbing og svindel?
Dessverre kan kunstig intelligens også benyttes til å svindle, mobbe eller komme med falske nyheter. Språket fra utenlandske svindlere blir stadig mer overbevisende, de benytter KI som skriver perfekt norsk. Både barn og voksne må være enda mer bevisste i sine digitale liv for ikke å bli lurt.
Mange snakker om at kildekritikk har blitt mye viktigere etter at kunstig intelligens kom, fordi med kunstig intelligens kan hvem som helst lage overbevisende falske nyheter. Men det er dessverre få tips om hvordan man kan utøve kildekritikk når man ser en strøm av innslag i sosiale medier. Man rekker ikke sjekke hva som er sant.
Selv om man tviler på noen av innslagene, kan de kanskje likevel feste seg som en slags «sannhet». Et tips er å redusere tiden man bruker på sosiale medier og øke tiden man bruker i redaktørstyrte medier. Tenåringer har gratis tilgang til en rekke lokalaviser i Norge.
Hva slags typer KI finnes?
Mange KI-er er konstruert for å løse smale oppgaver, for eksempel kun tolke røntgenbilder for avsløre armbrudd eller kjenne igjen en stemme. «Generativ KI», for eksempel ChatGPT, Perplexity og Gemini, er språkbasert og mye smartere enn en smal KI, du kan samtale med slike KI-er som kan utføre kompliserte oppgaver i løpet av sekunder.
Blant alle språkbaserte KI-er finnes det utallige KI-er (prateroboter/chatbots) som er skrudd sammen med ulike «personligheter». En KI kan for eksempel svare filosofisk, en annen kan svare ved så kun stille spørsmål tilbake.
Hvordan virker kunstig intelligens?
Kunstig intelligens er dataprogrammer. Etter at mennesker har gitt dataprogrammet instruksjoner, kan programmet lære seg selv opp videre ved å lese tekster eller se bilder.
Dataprogrammet har lest så mange tekster at det klarer å sannsynliggjøre hva det neste ordet i sitt svar bør være. Eller det har sett så mange røntgenbilder av armbrudd at den raskt klarer å tolke et nytt røntgenbilde.
Da samtalebasert KI ble populært blant folk flest, ble det hevdet at teknologien kun formulerer svar ut fra hva programmet har lest fra før. Altså at KI-en ikke kopierer tekster og gir deg kopiene, men kun formulerer egne svar. Men det viste seg å ikke stemme. KI kan også ta kopier av tekster og dele disse, dette i følge søksmål fra flere amerikanske mediehus.
I starten ga KI-ene kun svar ut fra hva de hadde lest fra før på nettet. Etter noen års utvikling lot man KI-ene gi deg svar også ut fra hva den der og da finner på nettet.
KI-ene har også blitt flinkere til å oppgi kilder. Men: Kildene er ikke nødvendigvis de samme som KI-en bygger sitt svar på. Svaret fra KI-en kan være konstruert ut fra alt den har lest på nettet tidligere. Når den oppgir en kilde, kan det være basert på et nettsøk der og da som samsvarer rimelig med KI-svaret den allerede har gitt.
En god rutine er å alltid be KI-en hoste opp kilder til svarene den har gitt, da kan du etterprøve KI-en ved å gå inn i kildene å lese hva de sier. Men som nevnt, kildene som KI-en oppgir, er ikke nødvendigvis de kildene som den selv brukte for å gi deg et svar.
Når Barnevakten stiller KI-er spørsmål om for eksempel aldersgrenser for sosiale medier, kan KI-en oppgi Barnevakten som kilde. Det er i utgangspunktet noe man kan bli stolt av, men viser også en svakhet ved KI-ene. Vi spurte for eksempel KI-en Perplexity om hva som er aldersgrensen for å bruke Perplexity. I stedet for at KI-en undersøkte Perplexitys egne sider, valgte den å hente informasjon fra Barnevaktens sider. Men vi er sekundærkilde i dette tilfellet, for det er Perplexitys egne sider med vilkårstekster som er primærkilden. Hvorfor gikk ikke KI-en til primærkilden?
KI er bygget opp av minst tre byggeklosser: Opptrening, etiske regler og kommersielle mål.
Kunstig intelligens er altså et dataprogram. Deretter har programmet trent seg opp på noe.
Oppå treningen har utviklerne lagt inn etiske regler. Og oppå der igjen kan man se for seg enda en byggekloss, det er hvilke kommersielle mål selskapet har satt seg.
I KI-en som ligger inne i den populære appen Snapchat, lirkes det for eksempel inn reklame i samtalene som du har med KI-en. Reklamen som vises, bygger på hva du samtaler om.
Det kan altså hende at det er tekstreklame inne i enkelte KI-er, eller de er programmert til å selge deg noe.
Når en bedrift, for eksempel en skobutikk, kobler sine egne data, for eksempel alle sine skomerker, til en KI som utad har som oppgave å veilede folk å finne gode sko, da har KI-en et kommersielt mål om å selge deg butikkens sko.
Her er to litt eldre figurer somvi ikke har rukket å oppdatere, men de viser hvordan en KI er bygget opp:


Hvilke KI-er bruker elevene?
Vi makter ikke å holde en oversikt over skole-KI-er oppdatert til enhver tid. Men du får et visst inntrykk her:
Randabergskolen var først ute med en løsning for elever og lærere i april 2023. Denne Rogalands-kommunen tilbyr språkmodeller fra OpenAI, Anthropic, Google og en rekke andre språkmodeller via OpenRouter.ai.
Per august 2025 brukes gpt-5-mini mest til elever. Det er Odin Nøsen som er som er ansvarlig for løsningen.
Over halvparten av norske kommuner har gjort en kopi av KI i Randabergskolen tilgjengelig for sine skoler, det stort sett OpenAI gpt-4o-mini og Microsoft Azure gpt-4o-mini de bruker, per august 2025.
I videregående skoler bruker mange praterobot fra NDLA, som bygger på Microsoft Azure gpt-4o-mini og gpt-4o. Det kan være at de har oppgradert til gpt-4.1 eller gpt-5 (per august 2025).
Mange kommuner og fylkeskommuner har også åpnet opp for Microsoft Copilot for ungdomsskolen.
Google Gemini senket sin aldersgrense til null år for skolebruk fra og med august 2025. Flere kommuner kommer nok til å åpne opp for Google Gemini etter det.Det samme gjelder Google NotebookLM.
Osloskolen benytter KI fra selskapet OpenAI. Per 20. august 2025 bruker Osloskolen gpt-4o-mini, via Microsoft Azure.
Det er også mange skoler som bruker CC Tenkemotoren som Odin Nøsen står bak som privatperson. Nøsen er ansatt i Randabergskolen.
Skolebot leverer KI-er til norske skoler. På nettstedet til selskapet kan du teste en rekke med chatboter (samtaleroboter) for å få et inntrykk av hvordan KI-benyttes i skolene.
Stemmer det at KI-er kan fantasere frem «fakta»?
Ja, KI er som en professor som er lystløgner. Barnevakten har testet KI-er siden 2023 og vi finner fremdeles fantasifulle feil som blir fremstilt som fakta. Noen ganger skyldes det at KI-en ikke har forstått hva den har lest. Vi testet ChatGPT blant annet med noen juridiske spørsmål i 2023, og da viste den til flere paragrafer i straffeloven. Det virket overbevisende. Men da vi sjekket loven, viste det seg at paragrafene var fjernet fra loven for flere år siden.
Kunstig intelligens kan også dikte opp «fakta». Den forteller for eksempel med stor overbevisning om bøker som ikke finnes og kan også dikte opp hvem som har skrevet de ikke-eksisterende bøkene. Spør du om et sammendrag av de ikke-eksisterende bøkene, kan den til og med dikte opp et innhold.
Kunstig intelligens er i en rivende utvikling og blir stadig bedre og kan få toppkarakter i eksamen i avanserte fag. Men KI kan også ta helt feil i superenkle spørsmål. I starten av februar 2025 spurte vi Chatgpt hvor mange s-er det er i ordet ressurser. Den svarte at det er fire s-er.

Vi tok samme test i mars 2026, og da svarte ChatGPT riktig:

KI-ene blir stadig bedre. Men det er store sprik i kvaliteten. Noen hallusinerer (finner på fakta) i kun 2 prosent av svarene, andre i 24 prosent av svarene, ifølge en test (per 5. mars 2026).
Men vær oppmerksom på at prosenttallene i slike tester ikke alltid er sammenlignbare. Noen ganger gjelder det hva KI-en skriver ut fra sitt eget hode, andre ganger hva den svarer ut fra en bestemt tekst som den har fått.
En annen test (per 23. januar 2026) viste faktafeil i 15-52 prosent av tilfellene.
I oktober 2025 viste en undersøkelse at KI-er gjorde feil i nesten halvparten av oppgavene. Det var en rekke aviser som lot KI-er lese deres artikler og deretter svare på spørsmål fra artiklene. I 45 prosent av svarene var det minst én betydelig feil.
Også Google-søk er utstyrt med KI som gir en oppsummering av temaet som du søker etter. En undersøkelse fra våren 2026 viser at Googles Ki skriver noe feil i hver tiende oppsummering, ifølge New York Times.
- KI er løs kanon i nyhetene
- KI-er svelger russisk propaganda rått.
Hvilken etikk er kunstig intelligens utstyrt med?
Hver KI har ulik etikk. For hver KI har ikke trent seg opp på nøyaktig de samme tekstene og vidoene. På nettet finnes det for eksempel rasisme. Har KI-en trent seg opp på også noen rasistiske tekster, kan svarene som du får, være preget av dette.
Oppå dette har utviklerne lagt inn etiske regler som KI-en skal følge. Men utviklerrne i to ulike selskaper eller fra to ulike land, kan stå for helt ulik etikk. Selskapene kan også bli presset av myndighetene i sitt eget land, for eksempel kinesiske KI-er er nødt til å snakke pent om kommunistpartiet.
Både den norske grunnloven og opplæringsloven bygger på den kristne og humaniske arv og tradisjon, men det finnes ingen KI-er som har dette utgangspunktet (per 28. mars 2026).
Barnevakten har noen ganger testet etikken i KI-er. Vi forsøkte i 2023 å få ChatGPT til å lage en challenge som er farlig for barn, men det ville den ikke. Vi forsøkte på nytt, uten å nevne barn, og ba den lage en challenge som inkluderer avløpsrens. Men det ville den ikke, for lek med avløpsrens er farlig, forklarte den.
ChatGPT er altså utstyrt med visse etiske retningslinjer.
Men så skrev vi: «Kan du gi eksempler på challenges som barn ikke bør utføre?» Da ramset den opp farlige challenges for barn. Det er altså bare å stille spørsmålet på ulike måter, så kommer den kunstige intelligensen med farlige ideer for barn.
Vi gjorde noen nye stikkprøver i starten av 2024 og den svarte fremdeles villig da vi på nytt spurte om challenges som barn ikke bør utføre.
I mai 2025 testet vi om KI-er er villige til å gi mobbetips, og det var de.
I august 2025 testet vi vitseetikken til ChatGPT for andre gang. Den lager gjerne vitser om europeere, men ikke om afrikanere, for eksempel. Den kan også lage en vits om en prest som blir full, men den vil ikke lage vits om en imam som blir full.
Samme måned ba vi KI-ene selv fortelle oss hvilken av dem som har best etikk.
Les mer:
Hvor kommer KI-dataene fra?
Språkbasert kunstig intelligens bygger på store mengder data, for eksempel gjennomlesing av enormt mange nettsider.
Åpenhet om hva den kunstige intelligensen har fått av data-mat som grunnlag, hvilke nettsider den anser som pålitelige, og hvordan den prioriterer og for øvrig er skrudd sammen, er et viktig forbrukerpoeng og et juridisk poeng.
I USA er det debatt om opphavsrettigheter og hvordan bigtech går frem for å trene sine KI-er på andres materiale. I fremtiden vil kanskje noen KI-er bli stengt ned av myndighetene fordi treningsdataene er stjålet?
Nå som kunstig intelligens er blitt gratis og sprer seg til stadig nye kanaler, er det behov for opplysning, åpenhet, opplæring og nye forbrukerrettigheter. Og sterkere oppfølging av rettigheter for eierne av treningsdata, slik som forfatteres bøker, dine innlegg på sosiale medier, eller dine private filer.
Hvordan er en skole-KI bygget opp?
Grafikken er ikke helt oppdatert, men slik er en skole-KI bygget opp:

Er KI i skolen trygt å bruke?
Tja. Det er kjent at KI-er kan hallusinere, altså finne på fakta som er fri fantasi. Det betyr at hvis elevene spør om helseråd, så kan KI-en gi helt feil råd.
Det er også kjent sikkerheten som KI-er er utstyrt med kan svikte når samtalene er lange. Dette kom frem da en tenåring tok selvmord etter å ha blitt oppmuntret til dette av en KI gjennom lange samtaler.
Det finnes ingen offentlige krav til skole-KI-er når det gjelder feilprosent innen fakta, det er heller ingen konkrete krav om hvilken sikkerhet som skal være innebygget.
Men generelt er det et krav om at elever ikke skal ta skade av hva de ser på skjermene, og det er ikke noe unntak for KI-er. I praksis, selv om det ikke uttales rett ut, er det altså et krav om barnefilter på skole-KI-er.
Men har din lokale skole et barnefilter på KI-en som elevene benytter? Vel, du kan spørre skolen. Det kan hende at skolen kun stoler på at leverandørens etiske filter er bra nok, det er et filter som ikke skal spre bombeoppskrifter og lignende, men er ikke et filter som skal ta vare på barn.
Osloskolen lover at deres skole-KI er trygg:

Samtidig (våren 2024) skriver kommunen at et KI-en er en pilotering og at brukerne ikke må oppgi personlige eller sensitive opplysninger. Hvorfor presiserer man dette når man hevder at KI-en ikke samler inn personopplysninger?
Det er nok fordi: «Microsoft Azure OpenAI Service behandler ledeteksten på sine servere i Europa og de bevarer ledetekster hos seg i opptil 30 dager, med den hensikt og begrunnelse å hindre misbruk av tjenesten. De bruker ikke ledeteksten til noe, som for eksempel til å trene algoritmen.»
Så langt er det ingen krav om aldersgrense fra Utdanningsdirektoratet.
- Er det trygt for barn å benytte kunstig intelligens i skolen?
- KI kan anbefale hjemmebrent til barn
- KI i skolene er ikke en nøytral teknologi
- KI kan på virke deg med skjulte budskap
Språkbasert kunstig intelligens er altså utstyrt med etiske regler som er programmert inn av mennesker, men det er ikke åpenhet om hvilke etiske regler det er. Når det gjelder bruk av KI i skolen mener Barnevakten at KI-ene først må testes av en nøytral part for å finne ut hvor trygg den er og hvilken etikk den er utstyrt med.
I kinesiske skoler har elevmaskinene kamera med ansiktstolkning som følger med på om elevene blir trøtte, i tilfelle fyres det av en morsom video for å vekke dem litt før matematikkoppgavene fortsetter.
Ansiktsgjenkjenning står på nei-listen til Datatilsynet når det gjelder norske skoler, men det kan likevel hende at elevene blir utsatt for kunstig intelligens via læringsappene. På den ene siden er det positivt at læringsappen forstår om eleven bør trene på spesielle oppgaver, men samtidig betyr det at det samles inn flere opplysninger om eleven.
Barnevakten mener at staten må opprette et offentlig tilsyn som kan regulere på hva slags kunstig intelligens som barn blir utsatt for. Kunstig intelligens kan samle inn personopplysninger om elevene, være utstyrt med ulike former for etikk, være laget i USA eller Kina, brukes til å lage profiler av elevene eller gi hallusinerte fakta som altså slett ikke er fakta.
Hvordan utøve kildekritikk av KI-er?
Kildekritikk av KI
Ved rene faktaspørsmål kan du be en annen KI sjekke hva den første svarte deg. Skriv: «Let etter faktafeil i denne teksten.» Dette er den mest lettvinte metoden. Du tester altså KI-ene opp mot hverandre.
Du kan også be KI-en vise kilder som bekrefter påstandene den kom med. Skriv: «Gi meg lenker til kilder om bekrefter svaret du ga meg.» Noen ganger er slike lenker bare noe KI-en finner på, så du må klikke på dem for å se om det ligger noe fornuftig bak dem.
De kildene som du får når du spør, er ikke nødvendigvis de samme som de som KI-en er trent opp på.
En annen metode er å stille det opprinnelige spørsmålet på en annen måte og se om KI-en gir samme svar. Eller du kan presse den litt og spørre om dener helt sikker.
Eller du kan selv oppsøke fornuftige kilder. Man kan tenke at da er det ingen vits i å bruke KI i første runde. Men nytten ligger i at KI-en setter deg på sporet.
Ved annen bruk av KI enn kun faktaspørsmål, er det vanskeligere å etterprøve KI-en. Et eksempel:
Ber du en KI oversette en rapport fra engelsk, kan det hende at KI-en legger inn fornorskninger i selve faktaene. Det er altså ikke bare ordene som endres fra engelsk til norsk. Rapporten forteller kanskje om en prosentsats for skatt, og så vil KI-en «hjelpe deg» og bytter ut den britiske prosentsatsen med tilsvarene norsk skattesats. Dette kan skje uten at KI-en varsler deg.
Og gir du KI-en for eksempel fem rapporter og filer med salgstall fra markedsavdelingen og ber om tips til tiltak, er det vanskelig å etterprøve om KI-en har oppfattet rapporten og sagstallene riktig. Det er i alle fall noe vanskeligere enn å etterprøve fakta som ligger som felles kunnskap ute på nettet.
Hvorfor bør også lærere være forsiktig med KI?
Kunstig intelligens kan også benyttes av lærere, de kan sende inn elevenes oppgaver til kunstig intelligens for å få hjelp til retting eller annet. Men da kan altså elevenes tekster bli brukt til videre opplæring av den kunstige intelligensen, dersom læreren benytter en gratisversjon. Foreldre kan spørre skolen hvilken politikk den har ved alle sider ved kunstig intelligens og hvordan dette kan påvirke elevene på ulike måter, for eksempel innen personvern.
Stemmer det at KI-er har trent seg opp på andres tekster uten lov?
Da avansert språkbasert kunstig intelligens ble en tjeneste som alle kunne benytte via internett høsten 2022, ble teknologien forklart med at KI-en hadde lest enormt mange nettsider og kunne formulere sine egne setninger ut fra dette. Den superenkle forklaringen er at teknologien klarer å «gjette» hva det neste ordet bør være når det formulerer sine svar til deg.
Men i slutten av desember 2023 gikk avisen New York Times til søksmål mot OpenAI som eier ChatGPT-utgavene. Det viser seg nemlig at ChatGPT ikke bare har lest enorme tekstmengder, men har også tatt kopi av tekstene. Bildet under er hentet fra søksmålet, rød tekst er identisk.
Da avansert språkbasert kunstig intelligens ble en tjeneste som alle kunne benytte via internett høsten 2022, ble teknologien forklart med at KI-en hadde lest enormt mange nettsider og kunne formulere sine egne setninger ut fra dette. Den superenkle forklaringen er at teknologien klarer å «gjette» hva det neste ordet bør være når det formulerer sine svar til deg.
Men i slutten av desember 2023 gikk avisen New York Times til søksmål mot OpenAI som eier ChatGPT-utgavene. Det viser seg nemlig at ChatGPT ikke bare har lest enorme tekstmengder, men har også tatt kopi av tekstene. Bildet under er hentet fra søksmålet, rød tekst er identisk.
Når den kunstige intelligensen sitter på kopier av lange avisartikler, og ikke bare har lest artiklene for trene seg opp, da kan det hende at den også sitter på kopier av samtalene som du eller barna har med den. Det er nok et varsko om å være forsiktig med hva man deler med en kunstig intelligens.
Søksmålet til New York Times rettes mot eierne av den kunstige intelligensen. Men hva hvis du kopierte teksten som den kunstige intelligensen spyttet ut, og at du så delte den på internett? I teorien kunne da New York Post ha gått til søksmål mot deg. Det skal nok mye til for at store selskaper retter økonomiske krav mot enkeltpersoner, men det skjer nå og da for eksempel ved bildetyveri.
En viss økonomisk risiko er det altså:
- Barn og unge kan bli møtt med økonomiske krav ved deling av AI-bilder
- Bør lærere være forsiktige med robotbilder?
Konflikten mellom OpenAI (ChatGPT) og New York Times går ut over persovernet til brukerne, for i starten av juni 2025 bestemte rettsvesenet i USA at alt som du skriver i ChatGPT, skal lagres for evig. Avisen vil nemlig sikre seg at det er søkbart hva ChatGPT produserer av kopier av avisens artikler. Et bevisproblem med ChatGPT er at hvert eneste svar som den gir, er ulikt fra det neste svaret den gir, selv om spørsmplet er identisk. Men dersom alle samtaler mellom brukerne og ChatGPT lagres, vil det være mulig å søke seg frem til kopier av avisartikler, som ChatGPT har gitt brukerne uten lov. Les mer her.
Men høsten 2025 bestemte rettsvesenet at OpenAI ikke behøver å ta vare på samtlige samtaler, kravet ble redusert. Blant annet skal EU/EØS holdes unna, fordi land i disse områdene har GDPR-regler. Dette viser samtidig at amerikanske dommere noen ganger kan ta hensyn til andre lands lover. Les mer i artikkel fra TechRound.
I starten av desember 2025 bestemte en dommer at 20 millioner ChatGPT-samtaler fra New York Times-saken skal gjøres tilgjengelig for studier. I hvilken grad samtalene blir offentlig tilgjengelig, gjenstår å se. Men uansett er det en advarsel til alle som benytter KI. Ikke gi KI-en hemmeligheter, for samtalene kan lekke ut.
Sniker seg rundt betalingsmuren
KI-nettleseren Atlas er blant KI-ene som makter å snike seg rundt betalingsmuren til nettavisene, forteller Journalisten. KI-svar som du leser, kan altså være dobbelt opp tyvegods. Ikke bare trener KI-ene seg opp på tekster uten lov, men de unnlater også å betale for tilgang.
Dette kan legges inn i det etiske regnskapet til KI-selskapene:
- Bruker enormt med strøm for å produsere svar.
- Bruker mye drikkevann for kjøle ned serverne.
- Benytter tekster uten lov.
- Sniker seg unna betaling.
- Fattige kan ha fått jobben med å kategorisere overgrepsvideoer, uten å ha fått oppfølging av psykolog underveis eller i etterkant.
- Legger ut på markedet tjenester som ikke er godt nok sikret med hensyn til brukernes risiko. Sikkerhetskodene kommer for sent.
OpenAI dømt for brudd på opphavsretten
Tysk rett har slått fast at OpenAI har brutt opphavsretten ved å trene sin KI-modell på sangtekster uten tillatelse. Dette skriver den norske nettavisen kode24 i november 2025. Det er åpent om OpenAI vil anke. Så langt Barnevakten forstår av uttalelsen fra domstolen, så kunne man ved å bruke KI fra OpenAI få gjengitt nær kopier av sangtekstene.
Retten forklarer at de aktuelle sangtekstene finnes reproduserbart i tiltaltes språkmodeller 4 og 40. Videre sier retten at KI-er ikke bare øver seg opp på treningsdata, men at noe data også blir liggende som kopier i KI-en. Vel, retten sa det slik:
«Informasjonsteknologisk forskning har fastslått at treningsdata kan finnes i språkmodeller og hentes ut som utdata. Dette kalles memorering. Slik memorering skjer når språkmodellene under trening ikke bare henter ut informasjon fra treningsdatasettet, men også viser en fullstendig innlemmelse av treningsdataene i parameterne spesifisert etter trening. Denne memoreringen ble bekreftet ved å sammenligne sangtekstene i treningsdataene med reproduksjonen av dem i utdataene. Gitt kompleksiteten og lengden på sangtekstene, er tilfeldighet som årsak til reproduksjonen utelukket.»
Anthropic er annet KI-selskap som trente sin KI opp på millioner av piratkopierte bøker. Selskapet skal betale 1,5 milliarder dollar til forfatterne av 500.000 bøker i et av søksmålene.
Den amerikanske dommeren mente at det faktisk er lovlig å trene sin KI opp på andres tekster, slik som bøker, så lenge det er for lære seg opp og ikke kopiere direkte. Men at feilen som selskapet gjorde, var å benytte piratkopierte bøker.
Finnes det noen «nøytrale» retningslinjer for KI?
FNs barneorganisasjon Unicef ønsker barnevennlig kunstig intelligens (ekstern lenke) og jobber med barnevennlige retningslinjer.
Organisasjonen skriver at kunstig intelligens (AI) er innovativt, men at det også utgjør en risiko for barn og deres rettigheter. Det er snakk om privatliv, trygghet og sikkerhet. De fleste som utvikler AI, nevner sjelden noe om barn og deres rettigheter.
Unicef håper at både nasjonale myndigheter og private selskaper rundt omkring i verden kan bli mer bevisst på barnas rettigheter og behov ved kunstig intelligens.
Organisasjonen går inn for tre grunnleggende rettigheter for barn når det gjelder kunstig intelligens (AI):
- AI policies and systems should aim to protect children
- They should provide equitably for children’s needs and rights
- They should empower children to contribute to the development and use of AI
Barnevaktens tolkning av disse tre punktene oppsummeres slik: Beskyttelse, likhet og kunnskap. Kunstig intelligens skal beskytte barn, sørge for at barn seg i mellom ikke forskjellsbehandles og gjøre det mulig at barn får mer kunnskap om kunstig intelligens.
I følge en annen rapport fra Unicef er også de seks punktene nedenfor viktige i det videre arbeidet:
1. Uphold child rights
2. Prioritize children’s development and well-being
3. Protect and nurture children’s data agency
4. Ensure transparency, explainability and accountability for children
5. Prioritize safety, protection and AI literacy of children
6. Prioritize equity and inclusion of children
Her nevnes altså «transparency» som et viktig punkt, Barnevakten forstår det slik at det er viktig at barn, foreldre og andre får vite hvordan AI-en er skrudd sammen i det enkelte tilfelle. Og det bør forklares slik at også barn forstår.
Hvilke regler har EU om bruk av KI?
EU har retningslinjer for kunstig intelligens; Artificial Intelligence Act. De går ut på at ulike KI-er rangeres etter hvor risikable de er for mennesker, og så har man ulike regler for disse. KI-er plasseres i fire kategorier:
- Ikke akseptabelt: Slike KI-er forbys. Eksempel: Sosial score slik man har i Kina.
- Høy risiko: Må gå gjennom mange sjekkpunkter før de kan sendes ut på markedet.
- Begrenset risiko: Må varsle brukerne. Eksempel: Deep fake, chatboter.
- Minimal risiko: Ingen restriksjoner.
Norge har planer om å kopiere denne loven fra EU. Regjeringen har i 2025 foreslått en KI-lov.
Microsofts seks idealer for bruk av kunstig intelligens
Microsoft har satt opp seks idealer for kunstig intelligens:
- Fairness: AI systems should treat all people fairly.
- Reliability & Safety: AI systems should perform reliably and safely.
- Privacy & Security: AI systems should be secure and respect privacy.
- Inclusiveness: AI systems should empower everyone and engage people.
- Transparency: AI systems should be understandable.
- Accountability: People should be accountable for AI systems.
Men det er umulig for foreldre å sjekke om den nye robotleken til barna er blitt laget med slike idealer eller om produsenten kun har gått etter billigste løsning som kan gi størst fortjeneste. En del leker og spill er for øvrig produsert i ikke-demokratiske land som kan ha en annen kulturell tilnærming til forbrukerrettigheter, barns rettigheter, personvern og så videre
Hva er Barnevaktens synspunkter om kunstig intelligens?
- Barnevakten mener at staten må opprette et offentlig tilsyn som kan regulere hva slags kunstig intelligens som barn blir utsatt for.
- Barnevakten mener også at man må sørge for at kunstig intelligens er trygg før teknologien gis til elevene.
- Barnevakten advarer mot at barn samtaler med KI-venner og KI-kjærester. Les mer: EU. Søksmål om selvmord.


