Apple saksøkes for manglende tiltak mot overgrepsmateriale
Apple har blitt saksøkt for å ikke ha implementert verktøy som kan oppdage materiale som viser seksuelt misbruk av barn (CSAM) på sin iCloud-tjeneste. Søksmålet, som kan involvere en gruppe på opptil 2.680 ofre, ble rapportert av The New York Times.
I 2021 kunngjorde Apple planer om å lansere et system som skulle skanne bilder før de ble lastet opp til iCloud. Systemet skulle sammenligne opplastede bilder med en database over kjente CSAM-bilder fra blant annet National Center for Missing & Exploited Children (NCMEC).
Etter massiv kritikk fra personvernforkjempere og digitale rettighetsorganisasjoner, valgte Apple først å utsette lanseringen av systemet og deretter skrinlegge prosjektet i 2022.
Siden har kritikken mot CSAM fortsatt, blant annet fra Elektronisk Forpost Norge.
Ifølge en rapport fra den britiske veldedighetsorganisasjonen National Society for the Prevention of Cruelty to Children (NSPCC), rapporterte Apple kun 267 tilfeller av mistenkt CSAM globalt til NCMEC i 2023. Til sammenligning rapporterte Google 1,47 millioner tilfeller, mens Meta rapporterte 30,6 millioner.
Apple har så langt ikke kommentert det pågående søksmålet, men selskapet har tidligere uttalt at de prioriterer både brukernes sikkerhet og personvern. I en uttalelse fra 2022 understreket Apple at «barn kan beskyttes uten at selskaper må gjennomgå personlig data».
Kilder: Engadget, New York Times