Efter en masse tilbagemeldinger fra både kritikere og brugere, udsætter Apple sine foranst altninger mod børnemishandling.
I august annoncerede teknologigiganten oprindeligt en ny politik, der bruger teknologi til at spotte potentielle børnemisbrugsbilleder i iCloud og Messages, men bekymringer fulgte den. Eksperter advarede om, at selvom Apple lovede brugernes privatliv, ville teknologien i sidste ende bringe alle Apple-brugere i fare.
I fredags sagde Apple, at det ville forsinke udrulningen af teknologien helt for at foretage forbedringer og fuldt ud sikre brugernes privatliv.
"Baseret på feedback fra kunder, fortalergrupper, forskere og andre, har vi besluttet at bruge yderligere tid i løbet af de kommende måneder til at indsamle input og foretage forbedringer, før vi frigiver disse kritisk vigtige børnesikkerhedsfunktioner," sagde Apple i en opdateret erklæring på sin hjemmeside.
Det var meningen, at teknologien til afsløring af materiale til seksuelt misbrug af børn skulle blive tilgængelig senere i år i iOS 15-udrulningen, men det er nu uklart, hvornår eller om funktionen vil debutere.
Den nye teknologi ville fungere på to måder: For det første ved at scanne et billede, før det sikkerhedskopieres til iCloud. Hvis dette billede matcher kriterierne for CSAM, ville Apple modtage disse data. Den anden del af teknologien bruger maskinlæring til at identificere og sløre seksuelt eksplicitte billeder, børn modtager gennem beskeder.
Men efter at den nye politik blev annonceret, sagde privatlivsforkæmpere og grupper, at Apple i det væsentlige åbner en bagdør, som dårlige skuespillere kan misbruge.
For at løse disse bekymringer udgav Apple en FAQ-side kort efter at have annonceret CSAM-teknologien. Apple forklarede, at teknologien ikke ville scanne alle de fotos, der var gemt på en enhed, bryde ende-til-ende-kryptering i Beskeder og ikke fejlagtigt rapportere uskyldige mennesker til retshåndhævelsen.