Apple adresserer bekymringer over nye foranst altninger mod børnemisbrug

Apple adresserer bekymringer over nye foranst altninger mod børnemisbrug
Apple adresserer bekymringer over nye foranst altninger mod børnemisbrug
Anonim

Apple forklarer mere om processen, der er involveret i deres nye foranst altninger mod børnemishandling.

Teknikgiganten annoncerede en ny politik i sidste uge, der bruger teknologi til at spotte potentielle børnemisbrugsbilleder i iCloud og Messages. The Verge rapporterer, at Apple har udgivet en FAQ-side i de seneste dage, der forklarer, hvordan teknologien bruges, og hvordan privatlivsaspekterne ser ud, efter at folk har udtrykt bekymring over de nye foranst altninger.

Image
Image

Apple sagde, at dets teknologi er specifikt begrænset til at opdage materiale om seksuelt misbrug af børn (CSAM) og ikke kan omdannes til overvågningsværktøjer.

"En af de væsentlige udfordringer i dette område er at beskytte børn og samtidig bevare brugernes privatliv," skrev Apple på den nye FAQ-side.

"Med denne nye teknologi vil Apple lære om kendte CSAM-billeder, der gemmes i iCloud Photos, hvor kontoen gemmer en samling af kendte CSAM. Apple vil ikke lære noget om andre data, der udelukkende er gemt på enheden."

Teknologien fungerer ved at scanne et billede, før det sikkerhedskopieres til iCloud. Så, hvis et billede matcher kriterierne for CSAM, modtager Apple dataene fra den kryptografiske voucher.

Grupper såsom Electronic Frontier Foundation udtrykte deres bekymringer over teknologien i sidste uge og sagde, at teknologien kunne "genbruges til at skabe en database med "terroristisk" indhold, som virksomheder kan bidrage til og få adgang til med det formål at forbyde sådan indhold."

En af de væsentlige udfordringer i dette område er at beskytte børn og samtidig bevare brugernes privatliv.

Men Apples detaljerede FAQ-side adresserer nogle af disse bekymringer ved at opstille, at teknologien ikke vil scanne alle de fotos, der er gemt på en enhed, ikke vil bryde ende-til-ende-kryptering i Beskeder, og at den ikke vil fejlagtigt rapportere uskyldige mennesker til retshåndhævelsen.

The Verge bemærker, at Apples ofte stillede spørgsmål ikke adresserer de bekymringer, der er rejst om teknologien, der bruges til at scanne beskeder, og hvordan virksomheden sikrer, at scanningen kun fokuserer på CSAM.

Anbefalede: