Apple udsætter udrulningen af den kontroversielle CSAM-funktion
I august meddelte Apple, at der skulle komme en ny funktion i iPhone, der kan scanne efter billeder, der kan vise mishandling af børn. Den funktion er siden blevet temmelig kontroversiel. Det lyder jo meget godt at kunne scanne billeder for at opdage misbrug af børn, men mange har udtryk bekymring for, at funktionen også kan bruges at myndigheder til at spionere og overvåge sin befolkning, for eksempel minoriteter, oppositionen eller lignende.
Apple udsætter kontroversiel billedscanner i iPhone
Trods den hårde modtagelse lod det til, at Apple alligevel havde tænkt sig at sende funktionen ud til brugerne og samtidig forsvarede selskabet dens eksistens. De forsikrede alle om, at den ikke vil blive brugt til noget andet end det tiltænkte formål.
Men siden har Apple ændret holdning. De har nemlig nu meddelt, at de udsætter udrulningen af funktionen.
Sådan lyder det i en skrivelse om udsættelsen: “I sidste måned annoncerede vi planer om funktioner, der skal hjælpe med at beskytte børn mod kriminelle, der bruger kommunikationsværktøjer til at rekruttere og udnytte dem, og begrænse spredningen af materiale om seksuelt misbrug af børn. På baggrund af feedback fra kunder, interesseorganisationer, forskere og andre har vi besluttet at bruge mere tid i de kommende måneder på at indsamle input og foretage forbedringer, inden vi frigiver disse yderst vigtige funktioner til beskyttelse af børn”.
Se også: Bedste tilbud på iphone
Udskudt, ikke droppet helt
Det betyder ikke, at funktionen er helt droppet, men at den kommer på et senere tidspunkt. Det er dog for tidligt at sige noget, hvad ændringerne kan bestå i, andet end at de skal gøre funktionen lettere at acceptere.
Det var oprindeligt meningen, at den skulle komme som en del af iOS 15 og macOS Monterey, men nu må tiden vise, hvornår den kommer i stedet.
Se også: Nyheder om Apple og sikkerhed