Facebooks Deepfake-teknologi vil ikke redde os, siger eksperter

Indholdsfortegnelse:

Facebooks Deepfake-teknologi vil ikke redde os, siger eksperter
Facebooks Deepfake-teknologi vil ikke redde os, siger eksperter
Anonim

Key takeaways

  • Efterhånden som deepfakes bliver nemmere at lave, er nye og forbedrede måder at opdage dem på blevet en prioritet.
  • Facebooks deepfake-spotting-teknologi bruger omvendt maskinlæring til at afdække, om en video er en deepfake eller ej.
  • Eksperter siger, at brug af blockchain-teknologi ville være den bedste måde at se, om en video er ægte eller ej, da metoden er afhængig af kontekstuelle data.
Image
Image

Facebook er sikker på sin maskinlæringsmodel til at bekæmpe deepfakes, men eksperter siger, at maskinlæring i sig selv ikke vil redde os fra at blive narret af deepfakes.

Virksomheder som Facebook, Microsoft og Google arbejder alle på at bekæmpe deepfakes fra at sprede sig over internettet og sociale netværk. Selvom metoderne er forskellige, er der én potentiel idiotsikker metode til at opdage disse falske videoer: blockchains.

“[Blockchains] giver dig bare masser af potentiale til at validere deepfake på en måde, der er den bedste form for validering, jeg kan se,” Stephen Wolfram, grundlægger og administrerende direktør for Wolfram Research og forfatter til A New Kind of Science, fort alte Lifewire over telefonen.

Facebooks Deepfake-Spotting-teknologi

Deepfake-teknologi er vokset hurtigt i løbet af de sidste par år. De vildledende videoer bruger maskinlæringsmetoder til at gøre ting som at overlejre en anden persons ansigt på en anden persons krop, ændre baggrundsforhold, falsk læbesynkronisering og meget mere. De spænder fra harmløse parodier til at få berømtheder eller offentlige personer til at sige eller gøre noget, de ikke gjorde.

Eksperter siger, at teknologien udvikler sig hurtigt, og at deepfakes kun bliver mere overbevisende (og nemmere at skabe), efterhånden som teknologien bliver mere udbredt tilgængelig og mere innovativ.

Image
Image

Facebook gav for nylig mere indsigt i sin deepfake-detekteringsteknologi i samarbejde med Michigan State University. Det sociale netværk siger, at det er afhængigt af reverse engineering fra et enkelt kunstig intelligens-genereret billede til den generative model, der bruges til at producere det.

Forskere, der arbejdede med Facebook, sagde, at metoden er afhængig af at afdække de unikke mønstre bag AI-modellen, der bruges til at generere en deepfake.

“Ved at generalisere billedtilskrivning til åben-sæt-genkendelse kan vi udlede mere information om den generative model, der bruges til at skabe en deepfake, der går ud over at erkende, at den ikke er set før. Og ved at spore ligheder mellem mønstre i en samling af deepfakes, kunne vi også se, om en serie billeder stammer fra en enkelt kilde, skrev forskerne Xi Yin og Tan Hassner i Facebooks blogindlæg om dens deepfake-spotting-metode.

Image
Image

Wolfram siger, at det giver mening, at du ville bruge maskinlæring til at få øje på en avanceret AI-model (en deepfake). Der er dog altid plads til at narre teknologien.

"Jeg er slet ikke overrasket over, at der er en anstændig maskinlæringsmåde at [detektere deepfakes]," sagde Wolfram. "Det eneste spørgsmål er, hvis du gør nok indsats, kan du narre det? Det er jeg sikker på, at du kan."

Bekæmpelse af Deepfakes på en anden måde

I stedet sagde Wolfram, at han mener, at brug af blockchain ville være den bedste mulighed for præcist at finde bestemte typer deepfakes. Hans mening om at bruge blockchain over maskinlæring går tilbage til 2019, og han sagde, at blockchain-tilgangen i sidste ende kan give en mere præcis løsning på vores deepfake-problem.

"Jeg ville forvente, at billed- og videoseere rutinemæssigt kunne tjekke mod blockchains (og 'datatrianguleringsberegninger') lidt ligesom, hvordan webbrowsere nu tjekker sikkerhedscertifikater," skrev Wolfram i en artikel offentliggjort i Scientific American.

Da blockchains gemmer data i blokke, der derefter kædes sammen i kronologisk rækkefølge, og da decentraliserede blockchains er uforanderlige, er de indtastede data irreversible.

Det eneste spørgsmål er, hvis du anstrenger dig nok, kan du narre det? Det er jeg sikker på, at du kan.

Wolfram forklarede, at ved at lægge en video ind i en blockchain, ville du være i stand til at se, hvornår den blev taget, placeringen og andre kontekstuelle oplysninger, som ville give dig mulighed for at se, om den er blevet ændret på nogen måde.

"Generelt, jo flere metadata, der er, der kontekstualiserer billedet eller videoen, jo mere sandsynligt er det, at du kan fortælle," sagde han. "Du kan ikke forfalske tid på en blockchain."

Men Wolfram sagde, at den anvendte metode - om det er maskinlæring eller brug af blockchain - afhænger af den type deepfake, du forsøger at beskytte dig imod (dvs. en video af Kim Kardashian, der siger noget fjollet, eller en video af en politiker fremsætter en udtalelse eller et forslag).

"Blockchain-tilgangen beskytter mod visse former for dybe forfalskninger, ligesom maskinlærings-billedbehandling beskytter mod visse former for dybe forfalskninger," sagde han.

Bundlinjen, ser det ud til, er årvågenhed for os alle, når det kommer til at bekæmpe den kommende deepfake syndflod.

Anbefalede: