Hård kritik af Apples nye funktion til at scanne efter børnepornografi
Apple har netop annonceret, at de kommer med en ny fotoscanningsfunktion i iPhonen. Den går ud på, at den scanner gemte billeder på iPhones for at finde billeder, der viser potentielt misbrug af børn. Det lyder umiddelbart som en positiv ting, da det vil gøre det enklere for myndighederne at finde frem til misbrugerne.
Kritik af Apples funktion til at finde børneporno på iPhone
Mange har dog peget på, at der er en grænse her, som Apple er ved at krydse og som kan få store konsekvenser. Tidligere NSA-konsulent og verdens måske mest kendte whistleblower, Edward Snowden, er en af dem, der blev noget chokeret over den nye funktion. Han mener, at den, trods sine gode intentioner, egentlig er masseovervågning, som Apple spreder ud over hele verden.
Han er ikke alene om sin holdning. Også andre var offentliggjort sine bekymringer og kritik, Frygten er, at systemet vil kunne misbruges af myndighederne til at finde regeringsfjendtlige billeder, når det nu kan bruges til at identificere misbrug af børn.
Ross Anderson, der er professor i sikkerhedsteknologi ved Cambridge universitet, siger til Financial Times, at der er en ganske forfærdelig idé med denne overvågningsfunktion. Han frygter ganske enkelt, at den vil lede til en syndflod af overvågning på telefoner og laptops.
Se også: Billige telefoner til børn
Cloud-tjenester har gjort det samme
Med det sagt er der også dem, der peger på andre sider af sagen. Det gælder blandt andet 9to5Macs Benjamin Mayo, der siger, at sociale medier har udført lignende procedurer i årevis og det samme gælder andre cloudtjenester.
Stephen Balkam, stifter og CEO for Family Online Safety Institute i USA, støtter Apples tiltag for at sikre børn bedre online. “Med de udfordringer, som forældre har med at beskytte deres børn online, så er det afgørende, at tech-selskaberne konstant udvikler og forbedrer på deres sikkerhedsværkstøjer som modsvar på nye risici og faktiske skader”.
Måske handler kritikken mest om, at Apple altid har fremhævet sig selv som dem, der sætter brugernes privatliv først, og det her lugter lidt af det modsatte.
Se også: Priser på Apples produkter
Sådan leder Apple efter børnepornografisk materiale på iPhone og i iCloud
På Apples hjemmeside forklarer firmaet, at den nye teknologi vil gøre det muligt for Apple at opdage, når en bruger uploader billeder med børnepornografisk indhold til iCloud med henblik på at anmelde tilfælde til National Center for Missing and Exploited Children (NCMEC).
Ifølge Apple skulle løsningen være designet med brugernes privatliv in mente. Teknologien fungerer ved, at iPhones og iPads automatisk tjekker et billedes nummertegn (hashværdi) lokalt på enheden, inden billedet uploades til iCloud. Nummertegnene krydstjekkes med en database over nummertegn for billeder med kendt børnepornografisk indhold, som Apple har fået udleveret af blandt andet NCMEC og andre organisationer.
Skulle et billede, som forsøges uploadet til iCloud, matche med nummerværdier fra databasen over en vis tærskelværdi, vil det give Apple mulighed for at gennemgå indholdet. Her vil Apple sikre sig, at der rent faktisk er tale om børnepornografisk indhold. Er der tale om et match, deaktiveres brugerens Apple-id, og Apple anmelder hændelsen til NCMEC. Skulle systemet fejle, og brugeren mener, man er blevet deaktiveret på et forkert grundlag, kan brugeren appellere afgørelsen.
Apple oplyser, at tærskelværdien er sat ekstremt højt. Det skulle betyde, at sandsynligheden for, at en bruger får markeret børnepornografi på et forkert grundlag, er mindre end én ud af en billion.
iMessage sladrer til forældre om børn, der ser nøgenbilleder
Et andet tiltag, som Apple i samme ombæring har annonceret, omhandler appen Beskeder. Forældre, som har opsat iCloud Familiy-konto, kan nu aktivere en funktion, så de modtager advarsler om, at deres børn åbner indhold med eksplicit i Beskeder-appen – altså nøgenbilleder.
Når børn modtager eksempelvis et nøgenbillede i Beskeder, vil appen nu automatisk sløre billedet og vise en advarsel om, at billedet ”kan være ømtåleligt”. Vælger barnet at se indholdet, er det først her, at forælderen vil modtage advarslen.
Apple oplyser, at funktionen anvender lokal maskinelæring til at analysere de vedhæftede fotos, og at Apple ikke har adgang til indholdet. Det er stadig krypteret. Apple oplyser til sidst, at man ønsker at ”udvikle og udvide” sine tiltag for at beskytte børn.
🚨🚨 Apple says to “protect children,” they’re updating every iPhone to continuously compare your photos and cloud storage against a secret blacklist. If it finds a hit, they call the cops.
iOS will also tell your parents if you view a nude in iMessage.https://t.co/VZCTsrVnnc
— Edward Snowden (@Snowden) August 6, 2021
Se også: Nyheder om online sikkerhed og privacy
Sådan påvirker teknologien velfærdssamfundet
Mere til sagen
Siden redaktionen publicerede artiklen er der kommet nyt i sagen. Steen Jørgensen kunne ikke lade være. 30/7/2021 havde vi dette at sige med en artikel omkring emnet Apple fremviser stor fremgang – bl.a. takket være Indien – Klik her for at læse den påfølgende artikel.. Se også seneste nyt om emnet her.