Stol ikke på noget, du ser på nettet, siger eksperter

Indholdsfortegnelse:

Stol ikke på noget, du ser på nettet, siger eksperter
Stol ikke på noget, du ser på nettet, siger eksperter
Anonim

Key takeaways

  • Ny forskning afslører, at folk ikke kan adskille AI-genererede billeder fra rigtige.
  • Deltagere vurderede AI-genererede billeder som mere troværdige.
  • Eksperter mener, at folk skal stoppe med at stole på noget, de ser på internettet.
Image
Image

Ordsproget "seing is believing" er ikke længere relevant, når det kommer til internettet, og eksperter siger, at det ikke bliver bedre i den nærmeste fremtid.

En nylig undersøgelse viste, at billeder af ansigter genereret af kunstig intelligens (AI) ikke kun var meget fotorealistiske, men de fremstod også mere dydige end rigtige ansigter.

"Vores evaluering af fotorealismen af AI-syntetiserede ansigter indikerer, at syntesemotorer har passeret gennem den uhyggelige dal og er i stand til at skabe ansigter, der ikke kan skelnes og er mere troværdige end rigtige ansigter," bemærkede forskerne.

Den person eksisterer ikke

Forskerne, Dr. Sophie Nightingale fra Lancaster University og professor Hany Farid fra University of California, Berkeley, udførte eksperimenterne efter at have anerkendt de velkendte trusler om dybe forfalskninger, lige fra alle former for online-svindel til opkvikkende desinformationskampagner.

"Måske mest skadelig er konsekvensen, at i en digital verden, hvor ethvert billede eller video kan forfalskes, kan der sættes spørgsmålstegn ved ægtheden af enhver ubekvem eller uvelkommen optagelse," hævdede forskerne.

De hævdede, at selvom der er sket fremskridt med at udvikle automatiske teknikker til at opdage dybt falsk indhold, er de nuværende teknikker ikke effektive og nøjagtige nok til at følge med i den konstante strøm af nyt indhold, der uploades online. Det betyder, at det er op til forbrugerne af onlineindhold at skille det ægte fra det falske, foreslår duoen.

Jelle Wieringa, en fortaler for sikkerhedsbevidsthed hos KnowBe4, var enig. Han fort alte Lifewire via e-mail, at det er ekstremt svært at bekæmpe faktiske dybe forfalskninger uden specialiseret teknologi. "[Afbødende teknologier] kan være dyrt og vanskeligt at implementere i re altidsprocesser, og de opdager ofte en deepfake først efter kendsgerningen."

Med denne antagelse udførte forskerne en række eksperimenter for at bestemme, om menneskelige deltagere kan skelne state-of-the-art syntetiserede ansigter fra rigtige ansigter. I deres test fandt de ud af, at på trods af træning for at hjælpe med at genkende forfalskninger, blev nøjagtigheden kun forbedret til 59 %, op fra 48 % uden træning.

Dette fik forskerne til at teste, om opfattelser af troværdighed kunne hjælpe folk med at identificere kunstige billeder. I en tredje undersøgelse bad de deltagerne vurdere ansigternes troværdighed, blot for at opdage, at den gennemsnitlige vurdering for syntetiske ansigter var 7.7 % mere troværdig end den gennemsnitlige vurdering for rigtige ansigter. Tallet lyder måske ikke af meget, men forskerne hævder, at det er statistisk signifikant.

Deeper Fakes

Dybe forfalskninger var allerede en stor bekymring, og nu er vandet blevet mudret yderligere af denne undersøgelse, som tyder på, at sådanne falske billeder af høj kvalitet kunne tilføje en helt ny dimension til online-svindel, for eksempel ved at hjælpe med at skabe mere overbevisende online falske profiler.

"Den ene ting, der driver cybersikkerhed, er den tillid, folk har til de teknologier, processer og mennesker, der forsøger at holde dem sikre," delte Wieringa. "Dybe forfalskninger, især når de bliver fotorealistiske, underminerer denne tillid og derfor vedtagelsen og accepten af cybersikkerhed. Det kan føre til, at folk bliver mistroiske over for alt, hvad de opfatter."

Image
Image

Chris Hauk, forkæmper for forbrugerbeskyttelse hos Pixel Privacy, var enig. I en kort e-mail-udveksling fort alte han Lifewire, at fotorealistisk dyb forfalskning kunne forårsage "ravage" online, især i disse dage, hvor alle slags konti kan tilgås ved hjælp af foto-id-teknologi.

Korrigerende handling

Greg Kuhn, direktør for IoT, Prosegur Security, siger heldigvis, at der er processer, der kan undgå en sådan svigagtig autentificering. Han fort alte Lifewire via e-mail, at AI-baserede legitimationssystemer matcher en verificeret person mod en liste, men mange har indbyggede sikkerhedsforanst altninger for at tjekke for "liveness".

"Disse typer systemer kan kræve og guide en bruger til at udføre visse opgaver, såsom at smile eller dreje dit hoved til venstre og derefter til højre. Det er ting, som statisk genererede ansigter ikke kunne udføre," delte Kuhn.

Forskerne har foreslået retningslinjer for at regulere deres oprettelse og distribution for at beskytte offentligheden mod syntetiske billeder. Til at begynde med foreslår de at inkorporere dybt rodfæstede vandmærker i selve billed- og videosyntesenetværkene for at sikre, at alle syntetiske medier kan identificeres pålideligt.

Indtil da siger Paul Bischoff, privatlivsadvokat og redaktør for infosec research hos Comparitech, at folk er på egen hånd."Folk bliver nødt til at lære ikke at stole på ansigter online, ligesom vi alle (forhåbentlig) har lært ikke at stole på viste navne i vores e-mails," sagde Bischoff til Lifewire via e-mail.

Anbefalede: