
Bør alle telefoner og e-poster i EU skannes for overgrepsfilmer av barn?
Hvor langt bør man gå for å stanse overgrepsbilder av barn? Det er det store spørsmålet som EU på nytt skal ta stilling til i høst.
Er det greit at all privat kommunikasjon på nettet, slik som e-poster og chat, blir skannet for overgrepsmateriale? Eller er det å gå for langt? Et lovforslag om slik skanning har blitt nedstemt flere ganger i EU. I oktober skal EU gjøre et nytt forsøk i på å lande lovforslaget, i en revidert versjon, melder Adresseavisen.
Det finnes to typer overgrepsmateriale:
- Bilder som er kjent fra før av dem som jobber med å bekjempe slike.
- Nye bilder som ennå ikke er fanget opp.
Lovforslaget går ut på å lete etter bilder som er kjent fra før. Systemet virker slik:
- Stort arkiv: I USA er det en ideell organisasjon (NCMEC) som har et store arkiver over overgrepsbilder av barn – CSAM–bilder (Child Sexual Abuse Material). Bildene havner i arkivet når noen sender dem inn dit for å varsle om slike bilder. NCMEC mottok 36 millioner slike bilder i fjor, fra selskaper som Dropbox, Apple, Airbnb, Google, Lego, Microsoft, Movie Star Planet, Snapchat, Tiktok, WhatsApp og mange andre som oppdager slike bilder i sine systemer.
- Fingeravtrykk: Den ideelle organisasjonen utstyrer hvert bilde med en unik matematisk kode, man kan kalle det for bildets fingeravtrykk. Dette fingeravtrykket vil være mulig å oppdage selv om et bilde blir speilvendt eller kappet eller kun er en kopi av en kopi.
- Liste: Så lages det en lang liste med unike koder for kjente overgrepsbilder, det er denne listen som benyttes når en e-post, chat-melding eller bilder i skylagringen skal skannes.
- Må ikke være hull: I dag benyttes systemet av globale selskaper som leverer sosiale medier og lignende. For at systemet skal virke enda bedre, må også samtlige leverandører av internett installere systemet, og man må også skanne chatte-apper som benytter krypterte meldinger.
- Politi må varsles: Når en internettleverandør, eller kanskje en app, oppdager CSAM-bilder, må først selskapet be en ansatt se på bildene, for å sjekke at systemet ikke har gjort en feil, før politiet eventuelt varsles.
Skytjenester fra Apple, Google og Meta benytter lignende systemer allerede og flere big-tech-selskaper samarbeider om å dele informasjon om hva de finner.
Chat control
Lovforslaget har av kritikerne blitt kalt for chat control og man mener at det bryter med grunnleggende rettigheter i EU. Sier politikerne ja til lovforslaget, er man bekymret for hvor det vil ende med stadig mer overvåking av alle borgere i det godes tjeneste, ved at myndighetene ikke bare sjekker chatten dine for overgrepsbilder, men også for skattesnyteri og så videre.
Man er engstelige for at teknologien kan misbrukes til andre formål enn hva det opprinnelig var ment for, enten lovlig via nye regler, eller ulovlig fordi flere selskaper har fått en viss tilgang til meldingene dine.
Det kan også være at systemet senere utvides til å gjelde også bilder som ikke ligger inne i CSAM-registeret, det betyr at kunstig intelligens skal benyttes til å tolke alle bilder som du deler i chat, e-post og lignende. Da kan det komme falske positiver.
Ideen er at også chatteapper som benytter krypterte meldinger skal sjekkes for overgrepsbilder. For å klare å sjekke krypterte meldinger, må kontrollen skje før meldingen blir kryptert. Det kan samtidig bety at kommunikasjonen blir mer sårbar for hacking.
Skapes det usikkerhet omkring chatte-apper som benytter krypterte meldinger, forsvinner en trygg kanal som barn og unge benytter for å komme ut av nedbrytende forhold og sosial kontroll. Det samme gjelder journalister, advokater og utsatte minoriteter som trenger trygge kanaler å kommunisere i.
Europeisk rett har tidligere konkludert med at medlemslandene ikke kan drive såpass omfattende overvåking unntatt i tilfeller der landets sikkerhet er truet.
ECLAG
Eclag er en koalisasjon av 60 organisasjoner som arbeider for å innføre regler som kan begrense overgrepsmateriale i EU. Organisasjonene mener at reglene må dekke alle former for seksuelle overgrep mot barn, også grooming og materiale som ikke finnes i CSAM-arkivet.
Ved å avdekke grooming, kan overgrep stanses før de begås. Som nevnt over benytter en del av de store plattformene allerede lignende systemer for å slå ned på overgrep som foregår i sanntid.
I 2021 skrev vi at Apple testet KI-systemer som kan varsle foreldre om barna mottar upassende bilder på telefonen, dette gjaldt ikke nødvendigvis overgrep, men nakenbilder generelt. Allerede da var kunstig intelligens i bruk for å tolke bilder i private samtaler.
Hva EU-innbyggere mener om tiltak for å begrense overgrep, kan du lese i denne spørreundersøkelsen.
Oppdatering 19. november 2024: Her er flere detaljer om lovforslaget.
(Hovedbilde øverst: Foto: Shutterstock / WPixz)