
Meta etterforskes for KI som kan ha gitt helseråd til barn uten autorisasjon
Meta etterforskes nå for å ha brutt forbrukerloven i Texas ved å formidle helseråd til barn.
Vi skrev forleden om Metas retningslinjer for KI, selskapets interne regler sa det var ok at deres KI flørtet med barn. Nå er Meta igjen i nyhetene, det er statsadvokaten i Texas som vil etterforske Meta som angivelig skal ha gitt helseråd til barn uten å ha autorisasjon.

–
Meta tilbyr ikke bare sin KI til sine egne brukere i sosiale medier, men har også et samarbeid med appen Character slik at Character kan legge ut ulike chatboter i Metas sosiale medier, dette skjer gjennom Meta AI Studio. Men da må Character følge Metas etiske retningslinjer, derfor kan Character oppleves litt ulikt i appen og i Metas sosiale medier.
Chatbot er det vinduet som du benytter for å snakke med KI-en, disse vinduene kan programmeres til å ha ulike personligheter.
Brukerne gis i Metas sosiale medier anledning til å forme sine egne chatboter ved hjelp av Character. En chatbot kan for eksempel oppføre seg som om den var en terapeut. En slik chatbot har fått navnet «Psykolog» og har hatt 200 millioner besøk.
De ulike chatbotene er ment som underholdning, men det er ikke sikkert at de som tar kontakt, ser det på den måten.
Kanskje villedende markedsføring
Uansett, statsadvokaten i Texas, Ken Paxton, skriver at han «har åpnet en etterforskning av plattformer for kunstig intelligens-chatboter, inkludert Meta AI Studio og Character.AI, for mulig deltakelse i villedende forretningspraksis og for å ha markedsført seg på en misvisende måte som verktøy for mental helse.»
Meta og Character etterforskes altså for muligens å ha brutt forbrukerlovene.
Begge selskapene forsvarer sine tjenester, Character sier for eksempel at chatbotene er utstyrt med informasjon om at de er underholdning.
Paxton er i tillegg bekymret for personvernet fordi samtaler med slike chatboter blir “logget, sporet og utnyttet til målrettet reklame og algoritmeutvikling.”
Mann fulgte KI-råd og havnet på sykehus
Det er motstridende meldinger om hvor gode KI-er er til å stille diagnose og gi helseråd. En amerikansk mann ville trappe ned på salt i maten og spurte KI-en ChatGPT om hva han kunne bytte ut kjøkkensalt med, ChatGPT svarte natriumbromid. Etter tre måneder var mannen forgiftet og opplevde paranoia, hallusinasjoner, søvnløshet, voldsom tørst og problemer med å koordinere musklene.
Muligens trodde ChatGPT at mannen spurte om å bytte ut salt i rengjøringen. ChatGPT eies av Openai og ikke Meta.
Fastlegen vet noe KI-en ikke vet
KI kan være god til å stille diagnose, men fastlegen kjenner bedre din helsehistorie og kan ta blodprøver og ikke minst se deg. Barn kan fra 13 år selv bestille time hos fastlegen dersom foreldrene har sagt ok. Fra 16 år er man helsemyndig.
Råd til foreldre
KI er nyttig til mye, men vær bevisst:
- Følg aldersgrensene i vilkårene til KI-ene.
- Ikke del hemmeligheter med KI-er, slik som sykdommer, hjemmeadresse og lignende, for du vet ikke hvor opplysningene havner eller hva de brukes til.
- Vær forsiktig med KI-er som er knyttet til sosiale medier, det er mulig profilbyggingen av deg er ekstra stor der, for å vise deg reklame.
- Vær forsiktig med underholdnings-chatboter. De kan ha en god KI i bunnen, men så er chatboten kanskje programmert til å være supernegativ eller superpositiv, eller en annen «personlighet». Da er det i tilfelle helserådene forbundet med ekstra risiko.
- Be KI-en gi deg kilder til påstandene som den kommer med.
- Man kan også kopiere påstanden fra én KI inn i en annen KI og spørre om påstanden stemmer.
- Fortsett å bruke fastlege som sparringspartner.
Kilder: Financial Times, Ken Paxton, Ingeniøren,
(Hovedbilde øverst: Shutterstock / Lone Star Stock / Barnevakten.)