En rekke parter, også Datatilsynet i Norge, har uttrykt bekymring over Apples planer om angivelig å masseovervåke bilder og videoer som brukerne av selskapets produkter lagrer og overfører med selskapets tjenester. Målet med overvåkningen er blant annet å avdekke bilder av seksuelle overgrep mot barn, men frykten er at løsningen når som helst kan programmeres om til å avdekke helt andre ting. Noen omtaler det hele som en slags bakdør.
I tillegg til overvåkningen av bilder som overføres til Apple Icloud-tjeneste, noe som kalles for «CSAM detection» (Child Sexual Abuse Material), skal Apple innføre en funksjon kalt «Communication safety», som foreldre kan aktivere for sine barn opp til 12 års alder for å forhindre at de sender eller mottar seksuelt eksplisitte bilder.
I første omgang skal funksjonene bare tas i bruk i USA, men planen skal være å rulle dem ut i flere lang etter hvert.
Kun i visse scenarioer
På grunn av alt oppstyret etter at nyheten ble kjent, har Apple nå kommet med et dokument hvor selskapet svarer på en rekke mye stilte spørsmål. Der opplyser selskapet blant annet at det ikke er alle fotografiene lagret på for eksempel en Iphone som vil bli skannet. I stedet dreier det seg kun om bilder som brukerne velger å laste opp til Icloud, og bare dersom det blir kjent for Apple at den aktuelle kontoen lagrer samlinger av kjente CSAM-bilder. Da vil Apple varsles om dette, delvis fordi det i blant annet USA er ulovlig å besitte slike bilder.
Funksjonen skal ikke fungere dersom brukeren har deaktivert Icloud Photos eller i private bildesamlinger på enheten.
Vi blir alle tapere når Apple åpner bakdøra på vidt gap
Vil avvise alle krav om utvidelse
Kritikerne har også vært bekymret for at myndighetene i visse land vil kunne presse Apple til å bruke funksjonaliteten til andre former for overvåkning, nå som den allerede installeres på enhetene.
Apple avviser dette. For det første er ikke systemet laget for annet enn å bruke CSAM-bildehasher. Dersom slike bilder oppdages, vil det gjøres en manuell vurdering av ansatte hos Apple før noen andre eventuelt varsles. På den måten kan falske positiver forhåpentligvis lukes ut.
Bildegjenkjenningen gjøres ved å lage hashverdier av fotografiene og å sammenligne disse med hasher av CSAM-bilder, lister som Apple mottar fra National Center for Missing and Exploited Children (NCMEC) og lignende organisasjoner.
Apple opplyser at selskapet vil avvise eventuelle krav fra nasjonale myndigheter om å inkludere hasher for andre typer bilder enn CSAM-bilder. Selskapet skriver at det også tidligere har avvist krav fra myndigheter om å redusere personvernet på enhetene.
Det kan bli mulig å bruke Iphone uten mobilnett