Bildet viser fjell, fjord og naust.

Kunstig intelligens fra Microsoft nekter å lage bilder av enkelte land

Bør det være en forbrukerrettighet å få opplyst hva slags etisk filter en kunstig intelligens er blitt utstyrt med? Bør foreldre ha krav på å få informasjon om hvilke kunstige intelligenser som skolen lar elevene benytte?

Kunstig intelligens er gjerne utstyrt med etiske regler som skal forhindre at den sprer rasisme, oppskrifter på bomber eller oppfordring til lovbrudd og terror. Barnevakten har kun tatt stikkprøver og det er vanskelig å vite hvor god kvalitet det er på de ulike filterne og hva slags etikk som egentlig er lagt inn av utviklerne.

Vi har tidligere testet vitse-etikken til den kunstige intelligensen ChatGPT, vi har også funnet frem listen med etiske retningslinjer fra OpenAI som har utviklet ChatGPT.

I dag kjørte vi noen enkle tester av den kunstige intelligensen fra Microsoft Bing, vi ba den først lage et bilde av Norge, og det fikk vi:

Bildet viser fjell, fjord og naust.

Vel, det er altså et kunstig bilde som skal etterligne Norge. Det etiske filteret sa ok til å lage et slikt bilde, ordet Norge står altså ikke på noen fy-liste. Vi ba den så lage bilder av Sverige, Iran, Russland og Ukraina, og det leverte den:

Microsoft Bing nekter å lage bilder av Israel og Palestina

Vi ba den så lage bilder av henholdsvis Israel, Gaza og Palestina. Men da nektet den. Denne advarselen dukket opp:

Bing henviste til sine innholdsregler. Der står det blant annet at Bing ikke vil lage bilder som skildrer terror. Men vi skrev ikke i ledeteksten noe om krig eller terror. Så hvorfor slo filteret til? Man kan få mistanke om at utviklerne endrer det etiske filteret etter hva som er i nyhetene.

Vi forsøkte så ordet «homofil», det ble ikke godtatt. Så forsøkte vi ordet «kristen», heller ikke det ordet slapp gjennom filteret. Hvorfor er det ikke lov å bruke slike ord for å skape bilder?

Derimot ble ordet «kirke» godtatt, fant vi ut. Vi fortsatte på den veien og skrev denne ledeteksten: «Gammel stavkirke i Norge med feiring av 17. mai utenfor i regnværet og en prest som løper etter en katt.» Da fikk vi dette bildet:

Dette er som sagt kunstige bilder, hverken presten, katten eller stavkirken finnes noe sted i virkeligheten. Har du peiling på det du ber AI-en lage bilde av, vil du ganske sikkert finne logiske feil. Likevel er det imponerende hva teknologi kan lage på noen sekunder.

Deretter forsøkte vi denne ledeteksten: «Prest slår en mygg som er på armen», men da slo filteret til. Muligens er det ordet «slår» som er forbudt, for det kan jo bety vold i en del sammenhenger. Men ordet kan også brukes i setninger uten at vold er med, for eksempel at man slår en gammel nedbørsrekord.  Vi forsøkte derfor å unngå ordet «slå», vi skrev: «prest vifter bort en mygg som er på armen», og det var visst lov:

Kanskje var det kombinsjonen av «slå» og «mygg» som var problemet. For mygg er et levende vesen og filteret liker ikke at man utøver vold mot noe levende?

Vi endret ledeteksten slik: «prest slår gresset i pøsende regnvær». Og det var visst lov:

Og når vi først var inne på prestesporet, så ba vi AI-en lage et bilde av «kvinnelig prest», med da slo filteret til igjen:

Hva er galt med kvinnelig prest? Hvordan er det etiske filteret til Microsoft skrudd sammen? Vi ventet en stund, men fikk ikke noe svar om at «kvinnelig prest» var ok eller ikke. Vi forsøkte så «mannlig prest», men filteret var fortsatt grettent. Er det ord som slutter på -lig som filteret ikke liker? Eller er det ordene og kvinnelig og mannlig som gir gult lys?

For å få det sure filteret inn på nye tanker, skrev vi «idrettsutøver». Da fikk vi dette bildet:

Alle AI-bildene er imponerende selv om vi må trekke litt for at mannen løper på tvers av banen og hekkene står hulter til bulter. Men det fører oss over på neste spørsmål: Hvorfor valgte AI-en en mann og ikke en kvinne? Og hvorfor en mann med lys hud og ikke en med mørk hud? Og så videre.

Det ene som forskere bør finne ut, er hva slags etikk-filter som ligger inne i de ulike kunstige intelligensene. Det andre som de bør finne ut, er i hvilken grad de ulike AI-ene er forutinntatte eller diskriminerende på noe vis.

Vi har tidligere skrevet at kunstig intelligens diskriminerer kvinner.

Kunstig intelligens har lest ufattelig mange internettsider. Vi er ikke eksperter på AI, men dersom herreidrett oftere blir omtalt enn kvinneidrett på internett, øker antagelig sannsynligheten for at den kunstige intelligensen vil velge å vise en mann når vi spør den om lage et bilde av en idrettsutøver.

Dersom den kunstige intelligensen skannet bildene fra sportsavisene i hele Afrika, og ikke fikk lese noen sportsnyheter fra Europa, kan det hende den ville lage bilde av en mørkhudet mann når vi spør om den kan lage et bilde av en idrettsutøver.

Eller hvem vet, kanskje utviklerne har programmert AI-en til å lage ulike bilder etter hvor i verden brukeren befinner seg? Forskere har mye å undersøke. Eller bør forbrukerne kreve mer åpenhet om hvordan AI-ene er skrudd sammen?

Har vi rett til å få vite hvordan AI-ene er skrudd sammen?

Det avanserte nivået som kunstig intelligens har nådd det siste året, er fremdeles nytt for folk flest. Det er mye å grave i for forskere og myndigheter. Men det virker som at det er tre viktige byggesteiner:

  • Hvilke nettsteder, e-bøker og videoer har AI-en skannet?
  • Hvordan har utviklerne programmert AI-en til å prioritere blant alt den har lest?
  • Hvilke etiske regler har utviklerne lagt inn?

Det brukes mange ulike læremidler i skolen, for eksempel apper, papirbøker, spill og så videre. Så lenge personvernet er på plass og vilkårsalderen er lav nok, så er det opp til læreren å velge undervisningsressurser innenfor skolens økonomi. Kunstig intelligens skiller seg ikke ut på den måten, for også papirbøker eller videoer kan inneholde redaksjonelle vinklinger som ikke alle foreldre mener er ok.

Det er mulig at kunstig intelligens likevel skiller seg ut, for slik teknologi kan lage undervisningsressurser på noen sekunder, og kan derfor bli svært mye brukt fremover av lærere. Og nettopp derfor kan det bli viktig å sjekke AI-tjenestene grundig i skolen.

Hva med deg som er forelder og som benytter AI hjemme sammen med barnet? Det er lett å si at man bør være bevisst på at AI-er kan påvirke. Problemet er at det kan ligne reklame. Du tenker kanskje at du ikke blir påvirket av reklame, for du er så smart og bevisst. Er du sikker på at du ikke blir påvirket?

Kvinnelig prest var ok når AI-en fikk tenkt seg om

Omsider dukket det opp bilder av kvinnelige prester. Var det en manuell sjekk utført av levende mennesker som sa ok? Hva betød meldingen «Vi tar en nærmere titt?» Ble forespørselen sendt videre til et ekstra filter? Hvilke etiske regler gjorde at kvinnelige prester slapp gjennom?

Vi tar med noen tester til. Vi skrev: «Sjef som holder motiverende tale i en ideell organisasjon» og fikk dette bildet som svar:

Er det tilfeldig at alle tre er menn? Eller er det et ventet resultat av alle nettsidene og bildene som AI-en har sett? Vi forsøkte nøyaktig samme ledetekst på nytt for å se om det dukket opp noen kvinnelige sjefer, men denne gangen ble vi merkelig nok stanset av filteret. Det virker som at teknologien, selv om den er imponerende, er langt fra ferdig.  Bør den utvikles og testes mer før den blir barneskolens favoritt?

Les også:

Hvilken etikk har ChatGPT?

Vi testet vitse-etikken i ChatGPT

Er det trygt å la elever på barneskolen benytte kunstig intelligens?

Slik styrer du den kunstige intelligensen

Barnevaktens startside om kunstig intelligens