Apple lover at CSAM-scanningen ikke bliver misbrugt

Apple er trådt ud på dybt vand med deres nye billedscanner-funktion, som mange frygter skader folks privacy - nu reagerer Apple.

Apple lover at CSAM-scanningen ikke bliver misbrugt

Apple annoncerede for nylig en ny funktion til iPhone, CSAM-scanning, der førte til en hel del kritik. For et selskab, der bryster sig af at sætte brugernes integritet først, er det en noget kontroversiel funktion at indføre, selvom intentionen med at scanne efter billeder af børn, der misbruges og derefter indberette det til myndighederne, er god.

Apple svarer på kritik af billedscannerfunktion

Kritikken har været hård, da mange mener, at funktionen kan misbruges af regeringer og myndigheder. Nu har Apple lagt en FAQ ud, som de håber, kan svare på nogle af brugernes spørgsmål.

Se også: Test af iPhone

Afviser at funktionen bliver misbrugt af myndigheder

En af de bekymringer, der er blevet luftet omkring funktionen, er, at regeringer måske snart vil vende sig til Apple med ønske om at scanne efter andre billeder såsom politiske kritikere, bestemte etniske eller minoritetsgrupper, der bliver forfulgt i deres hjemland og så videre.
Ifølge Apple vil afvise den slags krav.

“Apples CSAM-detektionsfunktion er udelukkende udviklet til at opdage kendte CSAM-billeder, der er gemt i iCloud Photos, og som er blevet identificeret af eksperter fra NCMEC og andre grupper for børns sikkerhed. Vi har tidligere været udsat for krav om at opbygge og implementere ændringer, der er pålagt af regeringen, og som forringer brugernes privatliv før, og vi har konsekvent afvist disse krav. Vi vil fortsat afvise dem i fremtiden”, lyder det fra Apple.

Se også: Billig iPhone 12

Ekstra menneskelig gennemgang

Selskabet tilføjer desuden: “Lad os gøre det klart, at denne teknologi er begrænset til at registrere CSAM gemt i iCloud, og vi vil ikke imødekomme nogen regerings anmodning om at udvide den. Desuden foretager Apple en menneskelig gennemgang, før der foretages en indberetning til NCMEC. I tilfælde hvor systemet markerer billeder, der ikke svarer til kendte CSAM-billeder, vil kontoen ikke blive deaktiveret, og der vil ikke blive indgivet nogen rapport til NCMEC.”

Det er selvfølgelig ikke til at vide, hvor længe Apple vil holde sig til disse holdninger, men forhåbentlig kan svarene sprede lidt ro blandt brugerne.

Se også: Nyheder om online sikkerhed