Disse harmløse billeder mener Apple er børneporno
Apple er kommet i lidt af et stormvejr, efter firmaet i forrige uge meldte ud, at man vil scanne for børnepornografiske billeder, der forsøges uploadet til iCloud via en iPhone eller iPad.
Funktionen NeuralHash, som den hedder, virker ved at krydstjekke billeders såkaldte hashværdi (en unik talværdi for billedet) med en kendt database med hashværdier på børnepornografiske billeder. Ifølge Apple har firmaet sat en meget høj tærskelværdi for, hvornår billeder bliver markeret som børnepornografisk indhold.
Se også: Billige telefoner fra Apple
Apple siger dette er børneporno
Teknikken er dog tilsyneladende ikke fejlfri. En webudvikler har nemlig allerede skabt et værktøj, som automatisk genererer billeder med en hashværdi, der er nærmest identisk med hashværdier tilhørende børnepornografiske billeder. På det sociale medie Hacker News deles også en mappe med billeder i Google Drev, som ifølge Apples værktøj er børneporno.
Herunder kan du se de abstrakte billeder, som mest af alt ligner kunst, men som NeuralHash-systemet angiveligt mener er børneporno:
Billederne vil med al sandsynlig blive markeret som børneporno i Apples værktøj, men du vil formentlig ikke få deaktiveret dit Apple-id af den årsag.
Se også: Hård kritik af Apples nye funktion til at scanne efter børnepornografi
Får dog ikke de-aktiveret sit Apple-ID på grund af harmløse billeder
Når systemet opdager billeder med hashværdier, der matcher (eller næsten matcher) børnepornografiske billeders hashværdier, skal de visuelt gennemgås manuelt af Apple.
Først hvis Apple her vurderer, at der er tale om børneporno, vil vedkommende blive anmeldt til National Center for Missing and Exploited Children (NCMEC).
Se også: Nyheder om iPhone og børns sikkerhed