AI kunne stoppe med at luske ved at forudsige, hvad du vil sige

Indholdsfortegnelse:

AI kunne stoppe med at luske ved at forudsige, hvad du vil sige
AI kunne stoppe med at luske ved at forudsige, hvad du vil sige
Anonim

Key takeaways

  • Forskere har udtænkt en metode til at kryptere samtaler for at besejre slyngelmikrofoner fra at fange vores samtaler.
  • Metoden er vigtig, da den fungerer i re altid på streaming af lyd og med minimal træning.
  • Eksperter bifalder forskningen, men mener, at den ikke er til stor nytte for den gennemsnitlige smartphonebruger.
Image
Image

Vi er omgivet af smartenheder med mikrofoner, men hvad nu hvis de er blevet kompromitteret til at aflytte os?

I et forsøg på at beskytte vores samtaler fra snoopere har forskere fra Columbia University udviklet en Neural Voice Camouflage-metode, der forstyrrer automatiske talegenkendelsessystemer i re altid uden at genere folk.

"Med invasionen af [smarte stemmeaktiverede enheder] i vores liv, begynder ideen om privatliv at forsvinde, da disse lytteenheder altid er tændt og overvåger, hvad der bliver sagt," Charles Everette, direktør for Cyber Advocacy, Deep Instinct, fort alte Lifewire via e-mail. "Denne forskning er et direkte svar på behovet for at skjule eller camouflere en persons stemme og samtaler fra disse elektroniske aflyttere, kendt eller ukendt i et område."

Talking Over

Forskerne har udviklet et system, der genererer hviske-stille lyde, som du kan afspille i et hvilket som helst rum for at blokere useriøse mikrofoner fra at spionere på dine samtaler.

Den måde, denne type teknologi modvirker aflytning på, minder Everette om støjreducerende hovedtelefoner. I stedet for at generere stille hviskelyde for at udligne baggrundsstøjen, udsender forskerne baggrundslyde, der forstyrrer kunstig intelligens (AI) algoritmer, der fortolker lydbølger til forståelig lyd.

Sådanne mekanismer til at camouflere en persons stemme er ikke unikke, men det, der adskiller Neural Voice Camouflage fra de andre metoder, er, at det fungerer i re altid på streaming af lyd.

"For at operere på live tale skal vores tilgang forudsige [den korrekte scrambling-lyd] ind i fremtiden, så de kan afspilles i re altid," bemærker forskerne i deres papir. I øjeblikket fungerer metoden for størstedelen af det engelske sprog.

Hans Hansen, CEO for Brand3D, fort alte Lifewire, at forskningen er meget vigtig, da den angriber en stor svaghed i nutidens AI-systemer.

I en e-mail-samtale forklarede Hansen, at de nuværende deep learning AI-systemer generelt og naturlig talegenkendelse i særdeleshed fungerer efter at have behandlet millioner af taledataregistreringer indsamlet fra tusindvis af talere. I modsætning hertil fungerer Neural Voice Camouflage efter at have konditioneret sig selv på kun to sekunders inputtale.

Personligt, hvis jeg er bekymret for enheder, der lytter med, ville min løsning ikke være at tilføje en anden lytteenhed, der søger at generere baggrundsstøj.

Forkert træ?

Brian Chappell, chefsikkerhedsstrateg hos BeyondTrust, mener, at forskningen er mere gavnlig for forretningsbrugere, der frygter, at de kan være midt i kompromitterede enheder, der lytter efter nøgleord, der indikerer, at værdifuld information bliver t alt.

"Hvor denne teknologi potentielt ville være mere interessant, er i en mere autoritær overvågningstilstand, hvor AI-video og stemmeprint-analyse bruges mod borgere," fort alte James Maude, BeyondTrusts ledende cybersikkerhedsforsker, til Lifewire via e-mail.

Maude foreslog, at et bedre alternativ ville være at implementere privatlivskontrol på, hvordan data fanges, gemmes og bruges af disse enheder. Desuden mener Chappell, at anvendeligheden af forskerens metode er begrænset, da den ikke er designet til at stoppe menneskelig aflytning.

"Til hjemmet, husk på, at brugen af et sådant værktøj i det mindste i teorien vil få Siri, Alexa, Google Home og ethvert andet system, der er aktiveret med et t alt triggerord, til at ignorere dig," sagde Chappell.

Image
Image

Men eksperter mener, at med den stigende inkludering af AI/ML-specifik teknologi i vores smarte enheder, er det fuldt ud muligt, at denne teknologi kan ende i vores telefoner i den nærmeste fremtid.

Maude er bekymret, da AI-teknologier hurtigt kan lære at skelne mellem støj og ægte lyd. Han mener, at selvom systemet i første omgang kan have succes, kan det hurtigt blive til et kat og mus-spil, efterhånden som en lytteenhed lærer at filtrere jamming-lydene fra.

Mere bekymrende påpegede Maude, at enhver, der bruger det, faktisk kunne henlede opmærksomheden på sig selv, da en forstyrrelse af stemmegenkendelsen ville virke usædvanlig og kunne indikere, at du forsøger at skjule noget.

"Personligt, hvis jeg er bekymret for enheder, der lytter med, ville min løsning ikke være at tilføje en anden lytteenhed, der søger at generere baggrundsstøj," delte Maude. "Især da det blot øger risikoen for, at en enhed eller app bliver hacket og kan lytte til mig."

Anbefalede: