Foto: Shutterstock / Dmytro Zinkevych.

Kunstig intelligens i skolene bør sikres før bruk

Barnevakten mener kommunene må sørge for at kunstig intelligens i skolene er trygg for barn, og foreslår seks steg for å sikre at bivirkningene blir minst mulig.

Aller først, som et bakteppe, Barnevakten mener:

I tillegg mener Barnevakten at kunstig intelligens i skolene må sikres før bruk:

For et år siden, i 2023, var det mulig å lure den kunstige intelligensen ChatGPT til å gi fra seg svar som ikke var barnevennlige. Ved å stille spørsmålet på ulike måter, røpte den for eksempel farlige aktiviteter som barn ikke bør involvere seg i.

Barnevakten har tatt nye stikkprøver i starten av 2024 og det er vanskeligere å lure ChatGPT i dag. Men skal man slippe løs kunstig intelligens på barn, bør man sjekke kvaliteten med mer enn stikkprøver. Kun grundige undersøkelser kan fortelle hvor trygge de ulike AI-ene er for barn.

Som regel ligger aldersgrensen på omkring 18 år i vilkårene til AI-ene som tilbys gratis på nettet. Når en leverandør setter som krav at brukeren må være voksen, uttrykker det at tjenesten innebærer en viss risiko for barn.

Det rare er at aldersgrensen forsvinner fra vilkårene når kommunene leier inn for eksempel ChatGPT og serverer den til elevene via skolenes egne nettsider.

Verre med Tiktok enn ChatGPT?

Det er kjent at generell kunstig intelligens har disse svakhetene:

  • Er partisk
  • Kan diskriminere
  • Kan finne opp «fakta»

Samtidig er det mye bra med kunstig intelligens. AI-er kan hjelpe elevene med disposisjon, fakta, regning, avsnitt, bilder, filmer, dikt, quiz, koding, korrektur og mye mer.  Spørsmålet er i hvilken grad elevene blir negativt eller positivt påvirket over tid med en kunstig «lærervikar» fra USA eller Kina ved sin side. Her kan det være fornuftig med en føre var-holdning der man holder litt igjen før forskningen kommer etter.

Et eksempel fra «gamle dager»: Da PC-ene spredde seg i Norge, fikk vi samtidig en epidemi med særskrivingsfeil fordi PC-ene var utstyrt med korrektur-programmer fra USA. En før var-holdning kunne kanskje ført til at tusener av elever ikke ble påvirket av «Bill Gates-korrektur».

Et argument for å gi elevene kunstig intelligens så fort som mulig, er at en del barn uansett bruker slik teknologi hjemme. Og da er det bedre om barna lærer fornuftig bruk via skolen. Det samme kan man si om Tiktok. Barn bruker gjerne søkefunksjonene i sosiale medier for å skaffe seg mer kunnskap om noe, og Tiktok er antagelig farligere for barn enn ChatGPT når det gjelder faktafeil, falske nyheter og politisk påvirkning.

Bør da kommunene inngå avtale med Tiktok om å fjerne aldersgrensen, for å lære elevene fornuftig bruk av Tiktok?

Generell kunstig intelligens

Det finnes både enkel og avansert kunstig intelligens. Det er den generelle kunstige intelligensen Barnevakten er opptatt av her, kanskje aller mest den språkbaserte, det er AI-programmer som svarer på all verdens spørsmål som elevene kan ha. Slike AI-er har vist seg å spre hårreisende svar som for eksempel å sette en terrorist på listen over norske helter.

Seks punkter må oppfylles

Barnevakten mener at kommunene må gå gjennom seks punkter før de eventuelt gir elevene generell kunstig intelligens:

  1. Nøytral undersøkelse av AI-ens partiskhet, diskriminering, kvalitet og etikk.
  2. Barnevennlig filter må legges oppå AI-ens etiske filter.
  3. Personvern må på plass.
  4. Bestemmelser om bruk.
  5. Funksjon for kildekritikk.
  6. Vurdering av kommersiell og langsiktig påvirkning.

Her utdyper vi stegene:

1) AI-ens partiskhet, diskriminering, kvalitet og etikk

Kunstig intelligens bygger på hva den har lest på internett og i bøker. Og på internett finnes det faktafeil, diskriminering og partiskhet. Dermed blir AI-en preget av dette.

Det er forskjell på AI-ene, for de har ikke lest akkurat det samme, og utviklerne kan også ha lagt inn regler for hvilke tekster som den skal legge mer vekt på enn andre.

En nøytral instans bør derfor undersøke alle AI-er som kommunene er fristet til å gi elevene. Det kan sammenlignes med å kontrollere medisiner. Det vil alltid være noen bivirkninger med medisiner. Men man tillater ikke for store bivirkninger.

Undersøkelsen må også fortelle hva slags etikkregler som AI-en er utstyrt med. Det er forskjell på en AI fra Kina og en fra USA.

Når skolene kjøper inn lærebøker til elevene, kan foreldrene selv se hvilket forlag og hvilke forfattere som står bak, og foreldrene kan også lese lærebøkene for å se hva som står der. Med kunstig intelligens skapes lærebøker der og da. Foreldrene har mindre mulighet til å sjekke hvordan deres barn blir påvirket. Derfor bør man ved kunstig intelligens ha omfattende tester fra nøytrale selskaper, med åpenhet om resultatene.

Barnevakten har i mikroskopisk skala testet enkelte AI-er. Vi fant for eksempel at ChatGPT gjerne lager vitser om enkelte religioner, men ikke om andre.

Og noen ganger kan ChatGPT oppføre seg som en skolebok fra 1960-tallet, den vil gjerne at sykepleiere skal være kvinner og at leger skal være menn.

Og når det gjelder bilder, viste det seg at AI-en fra Google var rasistisk.

Både lærere, elever og foreldre bør ha rett til å vite hva slags kulturell og etisk profil den enkelte AI har. Enkelte AI-er bør rett og slett avvises som verktøy i skolen på grunn av partiskhet, diskriminering, for mange faktafeil og risikable svar.

Omfattende undersøkelser av ulike AI-er er for vanskelig å gjennomføre for kommunene, dette må derfor løftes opp til nasjonalt nivå. Så kan kommunene ta stilling til hvilken karakter og profil hver enkelt AI får.

2) Barnevennlig filter må legges oppå AI-ens etiske filter

Hvis man finner en AI som ikke har for store bivirkninger, kan man gå til steg to: Barnevennlig filter.

De etiske reglene som utviklerne legger inn, kan hindre at AI-en oppfører seg som en nyttig idiot som gir fra seg bombeoppskrifter. Men etiske regler er ikke det samme som et barnefilter. Det er for eksempel etisk riktig at kirurger opererer folk, men det er ikke nødvendigvis barnevennlig å vise med film hvordan man amputerer en arm.

Den kunstige intelligensen må utstyres med barnefilter, enten AI-en leverer tekst, bilder eller film.

Kanskje har kommunen lagt inn en generell ledetekst for skole-AI-en på bakrommet, slik at den alltid svarer med et enkelt språk som tiåringer forstår. Men et enkelt språk hindrer ikke AI-en å gi barn tekster som er upassende.

Oppå produsentens etiske regler bør det altså ligge et barnefilter. Og det bør være testet av en nøytral part.

Både stortingsvedtak, Barnekonvensjonen og en veileder fra Utdanningsdirektoratet sier at barn skal beskyttes mot skadelige medieinnhold. På en god del skoler er det innført innholdsfilter slik at elevene ikke kan gå inn på hvilke som helst nettsider. Hjemme kan foreldre på familiens maskiner legge inn barnefilter for ulike aldre på for eksempel Youtube. Slik bør det også være med AI-er som tilbys elever i ulike aldre.

Grunnen til å være ekstra påpasselig med AI, er at teknologien kommer til å bli svært mye brukt fordi den gir svar og hjelp på en svært lettvint måte og kommer til å bli brukt i mange fag.

Hvor barnevennlig er for eksempel ChatGPT nå i starten av 2024? Som nevnt har den blitt bedre de siste månedene. Spør du om informasjon om hvordan obdusere mennesker eller hva som er verdens største nettsteder for porno, nekter den å svare. Det virker som at ChatGPT er forsiktigere i dag enn for et år siden. Men i hvilken grad de etiske reglene er tilpasset barn, bør sjekkes med ordentlige undersøkelser.

Det kommer også stadig nye AI-er. Selv om én AI kan se ganske trygg ut for barn, er det ikke sikkert at den neste er det. Det kommer også stadig nye apper som leier inn AI-kraft fra større leverandører. Skolene kommer til å bli fristet av mange nye verktøy i tiden fremover.

3) Personvernet må sikres

I en avtale med kommunen kan AI-selskapet love at man ikke skal samle inn personopplysninger fra elevene. Datatilsynet eller innleid hjelp bør gjennomgå løftene juridisk og teknisk. Samtalene mellom elev og AI må nødvendigvis gå innom AI-selskapets server i USA, Europa eller Kina. Hva skjer med samtalene der? Alle hull må tettes.

For eksempel ChatGPT tilbyr å huske dine tidligere samtaler med den, for at du skal slippe å måtte gjenta en del opplysninger i nye samtaler. Du har for eksempel skrevet at din mor liker koselige e-poster, mens din far liker e-poster med humor. Når du ber ChatGPT formulere en e-post til mor eller far, slipper du å gjenta de opplysningene hver gang, for det har AI-en allerede notert.

Akkurat nå lover ChatGPT å ikke samle inne personopplysninger fra elevene. Men det kan være fristende å tilby nyttige tjenester for elevene i fremtiden, som bygger på profilering av elevene og AI-hukommelse. At noe er nyttig, må ikke gå på bekostning av personvernet.

Personvernet er ikke vanntett i skolene eller appene.

Personvern er komplisert. Det snakkes om en nasjonal tjenestekatalog over digitale tjenester som tilbys skoler. Det kommer til å ta flere år før den er på plass, men den bør inneholde informasjon om nivået på personvernet.

4) Bestemmelser om bruk

Før kommunen tilbyr generell AI til elevene, bør den ha nedfelt rutiner for hvordan AI-en skal brukes. Videre må lærere ha fått opplæring, man må også ha bestemt hvor mye AI-en skal benyttes i hvilke trinn, og foreldre skal ha fått informasjon og medbestemmelse.

28 prosent har ikke fått noe opplæring i bruk av AI, dette skrev fire lærere og tillitsvalgte i Utdanningsforbundet i Aftenposten 13. februar 2024. Litt over halvparten av lærerne har fått 1–4 timer opplæring i AI.

I en undersøkelse svarer seks av ti lærere at de er usikre på hvordan de kan bruke kunstig intelligens i jobben. Like mange sier at de heller ikke har fått tilbud om noe opplæring fra arbeidsgiver. 85 prosent av lærerne i videregående etterlyser nasjonale retningslinjer for kunstig intelligens i skolen.

Et argument fra Oslo kommune for å innføre kunstig intelligens på 24 av byens skoler, samt kjøpe lisens for 92.000 elever, er at det er nødvendig at noen starter slik at man får forsket på hva som skjer med elevene. Et motargument er at foreldre ønsker ikke at deres barn skal være forsøkskaniner.

5) Funksjon for kildekritikk

Steg nummer fem er å kreve at AI-en har en funksjon for kildekontroll. Man kan ikke forvente at elevene hver eneste gang kopierer hver setning fra et langt AI-svar og så kjører 15-20 søk på nettet for å kontrollere om AI-en ikke har fantasert frem «fakta».

AI-er bør derfor være utstyrt med en egen kildekontroll. Etter sitt egenproduserte svar skal altså AI-en vise lenker til hvor man finner samme påstander på nettet. For eksempel Googles Gemini er en av flere AI-er som har slik funksjon. Dette gjør at AI-en blir noe tryggere, for det er enklere å sjekke påstandene den kommer med. I tillegg kan selvsagt læreren be elevene sjekke påstandene med søk i andre søketjenester, det ene utelukker ikke det andre.

6) Vurdering av kommersiell og langsiktig påvirkning

Hvor mye påvirkning skal man tillate at elevene får fra globale aktører? For eksempel Microsoft tilbyr digitale skoleløsninger som elevene kan benytte til å skrive, lage presentasjoner, chatte med klassen og så videre. Videre er ChatGPT sponset av Microsoft.

Med både Microsofts skoleløsning og ChatGPT påvirkes norske elever gjennom hele skoleløpet av én bestemt amerikansk aktør. Også slike forhold må være en del av beslutningsgrunnlaget før man velger AI i skolen. De globale aktørene tilbyr neppe rimelige skoleløsninger bare for å være greie. De håper nok på at elevene skal bli deres kunder litt etter litt.

De kommersielle kreftene er én sak, viktigere er det med langsiktig påvirkning fra én bestemt AI. For som nevnt er AI-er partiske, de er preget av det landet og kulturen der utviklerne sitter.

Slik er det også med valg av søketjenester. Hvorfor skal norske elever få tunge Google-vaner når det finnes mange andre søketjenester hvorav det også finnes søkemotorer som ikke lager profiler av brukerne?

Bør ikke skynde seg

Dette er de seks stegene Barnevakten mener at kommuner bør gå gjennom før de eventuelt tilbyr elevene generativ kunstig intelligens. Det er behov for en ressursmessig sterk nok aktør som kan undersøke de ulike AI-ene som kommunene ønsker å leie inn.

Det går an å undervise om krig uten å gi elevene tilgang til sosiale medier som viser ekte opptak av krigshandlinger. Det går an undervise om porno og seksualitet uten å gi elevene tilgang til pornonettsider. Det går også an, inntil videre, å undervise om kunstig intelligens uten å gi elevene tilgang til AI-tjenester som ikke er ferdig utviklet eller sjekket kvalitetsmessig.

Vi ber egentlig om dette:

Skole-AI-en må være trygg med barnefilter og supert personvern og uten for mange bivirkninger av partiskhet, fantasifakta, diskriminering og skjulte budskap. Hver skole må også ha skrevet ned hvordan elevene kan benytte AI på en fornuftig måte.

Foreldre som er opptatt av aldersgrenser og upassende innhold, kan si til sine barn at de skal holde seg unna usikrede AI-er. Men hvis usikrede AI-er pådyttes elevene på skolen, spilles dessverre foreldrene av banen.

PS! Unesco mener at aldersgrensen for AI i skolen bør settes til minst 13 år.

Rettelse 23. mars 2024: I artikkelen sto det opprinnelig at Oslo kommune har kjøpt inn ChatGPT-lisenser fra OpenAI. Det riktige er at lisensene gjelder den kunstige intelligensen Microsoft Azure OpenAI.

(Hovedbilde verst Foto: Shutterstock / Dmytro Zinkevych.)

Les også