Hvorfor Apples billedscanningsteknologi overhovedet ikke er privat

Indholdsfortegnelse:

Hvorfor Apples billedscanningsteknologi overhovedet ikke er privat
Hvorfor Apples billedscanningsteknologi overhovedet ikke er privat
Anonim

Key takeaways

  • Apples nye politik mod materiale om seksuelt misbrug af børn har forårsaget kontrovers blandt brugere og privatlivseksperter.
  • Teknologien fungerer ved at scanne billeder i iCloud til CSAM og bruge maskinlæring til at identificere eksplicitte billeder i Beskeder.
  • Eksperter siger, at uanset hvor privat Apple siger, at deres scanningsteknologi er, tillader den stadig i sidste ende en bagdør at være åben, hvor alt kan ske.
Image
Image

Apple introducerede for nylig en ny teknologi til at spotte materiale om seksuelt misbrug af børn (CSAM), men det får mere kritik end ros fra privatlivsfællesskabet.

Selvom Apple tidligere er blevet hyldet som en af de eneste Big Tech-virksomheder, der rent faktisk bekymrer sig om brugernes privatliv, sætter den nye CSAM-scanningsteknologi, der blev introduceret i sidste uge, en stor skruenøgle i det. Eksperter siger, at selvom Apple lover brugernes privatliv, vil teknologien i sidste ende bringe alle Apple-brugere i fare.

"Apple tager sit skridt ned ad en meget glat skråning; de har udviklet et værktøj, som er i fare for regeringens bagdøre og misbrug af dårlige aktører," sagde Farah Sattar, grundlægger og sikkerhedsforsker ved DCRYPTD. til Lifewire i et e-mailinterview.

Apples plan er ikke privat

Den nye teknologi fungerer på to måder: For det første, ved at scanne et billede, før det sikkerhedskopieres til iCloud-hvis et billede matcher kriterierne for CSAM, modtager Apple dataene fra den kryptografiske voucher. Den anden del bruger maskinlæring på enheden til at identificere og sløre seksuelt eksplicitte billeder, børn modtager gennem beskeder.

Apple tager sit skridt ned ad en meget glat bakke; de har udviklet et værktøj, som er i fare for regeringens bagdøre og misbrug af dårlige aktører.

Eksperter er bekymrede over meddelelsesfunktionen, da den effektivt ville afslutte den ende-til-ende-kryptering (E2EE), som Apple har kæmpet for.

"Apples introduktion af scanning på klientsiden er en krænkelse af privatlivets fred, da dette effektivt bryder E2EE," sagde Sattar.

"Formålet med E2EE er at gøre en meddelelse ulæselig for enhver part undtagen afsender og modtager, men scanning på klientsiden vil give tredjeparter adgang til indhold i tilfælde af et match. Dette danner præcedens for, at din data er E2EE…indtil det ikke er."

Mens Apple i en nyligt offentliggjort FAQ-side, der adresserer folks bekymringer over sin nye politik, sagde, at det ikke vil ændre fortrolighedsgarantierne for Beskeder og ikke vil få adgang til kommunikation, er organisationer stadig på vagt over for Apples løfter.

"Da påvisningen af et 'seksuelt eksplicit billede' vil bruge maskinlæring på enheden til at scanne indholdet af meddelelser, vil Apple ikke længere være i stand til ærligt at kalde iMessage "end-to-end krypteret," Electronic Frontier Foundation (EFF) skrev som svar på Apples politik.

"Apple og dets tilhængere kan hævde, at scanning før eller efter en meddelelse er krypteret eller dekrypteret holder 'ende-til-ende'-løftet intakt, men det ville være semantisk manøvrering for at dække over et tektonisk skift i virksomhedens holdning til stærk kryptering."

Image
Image

Potentiale for misbrug

Den primære bekymring for mange eksperter er eksistensen af en bagdør, der, uanset hvad Apple påstår, stadig er åben for potentielt misbrug.

"Selvom denne politik kun er beregnet til at gælde for brugere under 13 år, er dette værktøj også modent til misbrug, da der ikke er nogen garanti for, at brugeren faktisk er under 13 år. Et sådant initiativ udgør en risiko for LGBTQ+-unge og individer i voldelige forhold, da det kan eksistere som en form for stalkerware," sagde Sattar.

EFF sagde, at den mindste smule eksternt pres (især fra regeringen) ville åbne døren for misbrug og pegede på tilfælde af, at det allerede skete. For eksempel sagde EFF, at teknologier, der oprindeligt blev bygget til at scanne og hash CSAM, er blevet genbrugt til at skabe en database med "terroristisk" indhold, som virksomheder kan bidrage til og få adgang til at forbyde sådant indhold.

"Alt, der skal til for at udvide den smalle bagdør, som Apple bygger, er en udvidelse af maskinlæringsparametrene for at lede efter yderligere typer indhold eller en justering af konfigurationsflagene, der skal scannes, ikke kun børns, men nogens konti, " sagde EFF.

Edward Snowden fordømte endda Apples nye teknologi som et "nation alt sikkerhedsproblem" og "katastrofe", og hans organisation, Freedom of the Press Foundation, er en af mange, der har underskrevet et nyt brev, der opfordrer Apple til at afslutte dette. politik, før den overhovedet begynder.

Brevet er blevet underskrevet af mere end 7.400 sikkerheds- og privatlivsorganisationer og eksperter, der opfordrer Apple til straks at standse denne teknologi og udstede en erklæring, der bekræfter virksomhedens forpligtelse til end-to-end-kryptering og brugernes privatliv.

"Apples nuværende vej truer med at underminere årtiers arbejde fra teknologer, akademikere og politiske fortalere for, at stærke foranst altninger til beskyttelse af privatlivets fred er normen på tværs af flertallet af elektroniske forbrugerenheder og brugssager," lyder brevet.

Tiden vil vise, hvordan Apple planlægger at implementere denne teknologi på trods af den massive kontrovers omkring den, men virksomhedens påstande om at prioritere privatlivets fred vil helt sikkert aldrig blive de samme.

Anbefalede: