Foto: Shutterstock/Barnevakten

Googles algoritmeetikk – holder det for barna?

Barnevakten besøkte Google i USA sommeren 2019 og fikk et inntrykk av hvordan dette enorme selskapet fungerer.

Man blir lett sjarmert når man besøker hovedkontoret til Google. Utenfor lokalene er det sol, campingstoler, grønt gress og folk som drikker kaffe og leser bøker. Alle ansatte er unge mennesker fra hele verden, noe som er bevisst ansettelsespolitikk.

Foto: Sjur Jansen

Lunsj er gratis for alle, også for gjester. Hver fredag går noen fra ledelsen opp på en scene i den store matsalen for å svare på spørsmål fra de ansatte. Det er ganske flat struktur.

Foto: Sjur Jansen

Det er 20.000 ansatte bare i de bygningene som ligger rundt hovedkvarteret. Hundrevis av nye ansatte blir hver fredag hilst velkommen i matsalen. En av de ansatte vi snakket med, sa at på sin første arbeidsdag fikk han ikke  beskjed om hva dagens arbeidsoppgaver besto av, men sjefen spurte derimot om hva han hadde lyst til å gjøre. Selskapet har så flat struktur, og er så gigantisk, at man kan lure på om noen egentlig har den totale oversikten.

Foto: Sjur Jansen

Vi fikk høre at hvis du har en god idé internt i Google, er det ganske lett å få tilført midler og kolleger som kan dra prosjektet i havn. Og hvis prosjektet ikke viser seg å være populært blant Googles brukere, så legges det bare ned.

De Google-ansatte vi observerte eller møtte, var hyggelige, alt om alt fikk vi et meget positivt inntrykk. Men da vi tok opp etiske spørsmål, ble svarene noe tåkete, det virker som om man er opptatt av å lage løsninger, og så dytter man etiske spørsmål over på neste ledd, for eksempel over på brukerne eller skolene. Vi kan ikke hevde at det er slik over alt i Google, men det var det inntrykket vi fikk da vi snakket med ansatte.

Det er generelt vanskelig å komme i kontakt med Google og lignende store selskaper, så Barnevakten var overrasket over at selskapet ville ta oss imot til uformelle samtaler i USA. Vi har ikke anledning til å referere fra samtalene, men vi fikk sagt ifra at Google har et etisk ansvar overfor barn. Google på sin side sa at når det gjelder skoleløsningen deres, lager ikke Google profiler av barna, selskapet sender heller ikke profilbasert reklame til barna inne i løsningen.

Har du Googles e-postløsning G-mail, skanner Google e-postene dine for å se etter nyttige ord som kan festes til din profil slik at du får algoritmebaserte annonser som er skreddersydd til deg. For å bruke skoleløsningen fra Google, som mange norske skoler benytter, må barna opprette G-mail-konto. Men Google skanner altså ikke barnas e-poster som er knyttet til skolekontoen.

Men skanning av barnas e-poster skjer dersom barnet har opprettet en privat G-mail-konto. En av de Google-ansatte vi snakket med på vårt besøk, sa at det er ikke noe problem for Google å gjette alderen til den som har G-mail-konto, algoritmene til Google burde klare den jobben lett. Men det gjøres altså ikke. Eller det vet vi ikke. Det er riktigere å si at Google i hvert fall ikke gir et løfte av denne typen: “Hvis vi oppdager at en Google-konto benyttes av et barn, slutter vi straks profileringen og annonseringen knyttet til kontoen.”

Vel, slik var det da vi besøkte Google i sommer. Nå i september har det kommet noen løfter når det gjelder Youtube. Google har fått 1,5 milliarder kroner i bot fordi datterselskapet Youtube samlet inn brukerdata om barn i USA uten foreldrenes samtykke.

Selskapet skal om noen måneder derfor gjøre en del endringer, blant annet:

  • Youtube vil anta at de som ser barnefilmer, er barn. Youtube vil derfor ikke samle inn brukerdata når du eller barna ser barnefilm. Det betyr videre at dere slipper algoritmebaserte annonser under barnefilmene.
  • Muligheten for kommentarer skrus av ved filmer ment for barn.
  • Youtube skal bruke 100 millioner dollar på å skape barnevennlige filmer og innslag.
Protesterte mot Googles etiske råd

Google lever av å overvåke brukerne og lage profiler av hver enkelt av oss, for deretter å selge annonseplasser som er skreddersydd til den enkelte. Googles profilering av hver enkelt av oss betyr også at Googles algoritmer påvirker oss.

Etter besøket fant vi ut at Google tidligere forsøkte å etablere et etisk råd som skulle møtes fire ganger i året. Men det ble lagt ned før det fikk holdt sitt første møte. 2300 Google-ansatte protesterte nemlig mot en av de inviterte personene som skulle sitte i rådet: Kay Coles James er republikaner med konservativt syn på for eksempel transpersoner og immigranter. Ifølge Kay Coles James gikk det samtidig rykter på nettet om at hun var hvit undertrykker – noe hun selv ristet oppgitt på hodet av fordi hun er farget.

Vanligvis består etiske råd i amerikanske bedrifter av advokater som skal passe på at bedriften ikke bryter loven. Slike etiske råd består ikke av filosofer, teologer eller lignende som har kundens beste eller etikk for øye. Det virket som om Google faktisk ønsket å sette sammen en mer broket forsamling som skulle ta for seg etiske problemstillinger ved kunstig intelligens, men forsøket strandet altså.

Man kan samtidig stille spørsmålet: Når man skaffer seg et etisk råd, viser man da samtidig at man ikke er opptatt av etikk? Hvorfor outsourcer man etikken? Hvorfor er ikke etikk en så naturlig del av toppledelsens kultur at ledelsen selv kan sende etiske kjøreregler nedover i organisasjonen? En ledelse klarer normalt å meisle ut strategiske planer når det gjelder markedet, og da bør den vel også klare å meisle ut selskapets etikk. Eller bør også markedsplaner og strategier outsources? Bør ledelsen erstattes av avanserte algoritmer?

Før det etiske rådet kom i gang, kom altså kritikken. Noen mente at det var for lite med fire møter i året. Andre mente: «A board can’t just be some important people we know. You need actual ethicists.» Og atter andre mente at et slikt råd burde i tilfelle ha reell vetomakt mot prosjekter, ellers var det ikke noe vits. Men så vant den flate strukteren og det ble ikke noe av det etiske rådet.

Etiske prinsipper for kunstig intelligens

Uten et etisk råd fant Google likevel frem til noen etiske prinsipper ved tjenester som bygger på kunstig intelligens.

Kunstig intelligens er når maskinene selv lærer seg opp. Man laster inn for eksempel millioner av bilder av en isbjørn, og så lærer programmet hvordan en isbjørn ser ut. Når et nytt bilde av en isbjørn dukker opp, forstår programmet at det er en isbjørn selv om ikke noe menneske har tagget bildet.

Man kan tenke seg at kunstig intelligens kan tolke stemningen i et rom og tilkalle politiet. Eller at kunstig intelligens kan sette diagnoser på pasienter. Og så videre.

Her er Googles etiske prinsipper for utvikling av kunstig intelligens – forenklet av Barnevakten:

  • Algoritmene skal være til hjelp for mennesker og tilpasses den lokale kulturen. Fordelene skal være tydelig flere enn mulige ulemper eller risiko.
  • Algoritmene skal ikke være diskriminerende.
  • Algoritmene skal være så risikofrie som mulig.
  • Algoritmene skal stå under menneskelig kontroll, gi folk mulighet for å gi feedback og gi personvern.
  • Algoritmene skal bygges på god vitenskap.
  • Algoritmene skal lages slik at de helst ikke kan misbrukes til ondskap eller overføres til annen bruk som kan gi skade.

Og videre: Google vil ikke lage algoritmer som…

  • …i hovedsak skader.
  • …knyttes til våpen.
  • …driver med overvåking som bryter med internasjonale standarder.
  • …knyttes til produkter som bryter med menneskerettighetene og internasjonale lover.

Holder dette? Betyr dette at barn er trygge når de bruker Google-produkter? Eller er det nødvendig med flere milliardbøter?

Ansiktsgjenkjenning på skolen

Vi besøkte flere selskaper i USA denne sommeren og fikk høre at man tester ansiktsgjenkjenning av barna på skoler. Maskinen sjekker ansiktsuttrykkene kontinuerlig. Ser det ut til at barna mister konsentrasjonen eller sliter med en oppgave, kan algoritmene hente frem noe spennende eller noe enklere å jobbe med.

Samtidig har San Fransisco som den første byen i verden innført forbud mot ansiktsgjenkjenning brukt av politi og lokale myndigheter. I Sverige fikk en skole i høst 185.000 kroner i «GDPR-bot» for ulovlig bruk av ansiktsgjenkjenning. Skolen hadde innhentet samtykke fra elevene på den videregående skolen, men fikk bot fordi samtykket ikke kunne være helt fritt siden elevene står i et avhengighetsforhold til skolen.

Hva bør vi gjøre i Norge? I hvilken grad skal vi la algoritmer delta i oppveksten til norske skolebarn? Skal det være opp til den enkelte skole å innføre ansiktsgjenkjenning i klasserommet når det kommer tilbud om det? Hvordan bør en dataavtale med foreldrene se ut? Hva skal den digitale etikken i skolene egentlig gå ut på?

Hver eneste norske rektor har en stor jobb med å lage etiske retningslinjer for barnas bruk av digitale hjelpemidler. Etiske retningslinjer for skoleansatte kan også være klargjørende. Etikk-jobben er kanskje for stor for den enkelte rektor, for skolene har mange oppgaver.

Det virker som at det er et sprik mellom norske skoler. Enkelte skoler deler ut digitale hjelpemidler til elevene, mens etikken og de gode rutinene kommer på plass noen år senere. Andre bruker mye tid på innstillingene i skoleløsningene og læringsbrettene ved oppstart. Hver enkelt lokale skole har begrensede ressurser, det er kanskje på sin plass å etterlyse mer initiativ fra myndighetene og at foreldrene må få mer å si?

Bli medlem av Barnevakten