Key takeaways
- Amazons Alexa-stemmeassistent kan kopiere en stemme med så lidt som et minuts lyd.
- Du kunne bede Alexa om at læse en historie med en død forælders stemme.
- Det er den samme idé som dybe forfalskninger, kun brugt til det godes kræfter.
Amazon Alexas seneste gimmick er at lære at efterligne stemmen fra en afdød elsket, så de kan tale til dig fra den anden side af graven.
Alexa behøver kun et minuts t alt lyd for at efterligne en stemme overbevisende. Amazon regner det som en trøstende funktion, der kan bringe dig i kontakt med dine kære, men det kan også være en ret uhyggelig oplevelse. Og det viser, hvor nemt det er at lave dyb falsk lyd, der er god nok til at narre os, selv når stemmen er en, vi kender meget godt.
"Amazon er helt sikkert gået ind i et ret unikt og bizart territorium med sin meddelelse om, at Alexa snart ville være i stand til at lære og derefter bruge stemmen fra døde slægtninge snart," fort alte Bill Mann, privatlivsekspert hos Restore Privacy. Lifewire via e-mail. "For nogle mennesker er det slet ikke uhyggeligt. Faktisk kan det være ret rørende."
Ghost in the Machine
Som en del af sin årlige re:MARS-konference viser Amazon funktionen i en kort video. I den spørger et barn Alexa, om bedstemor kan blive ved med at læse ham "Troldmanden fra Oz", ethvert barns foretrukne keynote-venlige public domain-værk. Og det er et ganske rørende øjeblik. Det er svært ikke at føle menneskelige følelser, når mormor begynder at læse.
"Mennesker kæmper med dødeligheden, især i den vestlige kultur. I århundreder har vi forsøgt at finde måder at mindes de døde på, lige fra dødsmasker, til hårlokker, til gamle billeder, til at se gamle film," Andrew Selepak, en professor i sociale medier ved University of Florida, fort alte Lifewire via e-mail. "Deepfakes bruger den nyeste teknologi til at skabe en ny dødsmaske af en afdød elsket. Men afhængigt af ens perspektiv, er det uhyggeligt eller en måde at mindes og holde fast i en, du elsker, efter de er død?"
Men en memento mori kan være både trøstende og uhyggelig. Et familiemedlems ven er død, men du kan stadig høre dem tale. Det hjælper ikke, at Alexa har en historie med mærkelig og nogle gange skræmmende adfærd. I 2018, da NYTs meningsklummeskribent Farhad Manjoo gik i seng, begyndte hans Amazon Echo at jamre, som et barn, der skriger i en gyserfilmdrøm.
Kort efter erkendte Amazon, at Alexa nogle gange grinede højt, hvilket sammen med teenagere og kældre er gyserfilm 101.
Man kan kun undre sig over, hvordan du ville have det, hvis Alexa lavede de samme tricks med bedstemors stemme.
Deep Fake
Den tilsyneladende lethed, hvormed Alexa lærer at efterligne en stemme, fører os til mere slem brug af stemmekloning: dybe forfalskninger.
"Dybfalsk lyd er ikke ny, selvom den er lidt forstået og lidt kendt. Teknologien har været tilgængelig i årevis til at genskabe en persons stemme med kunstig intelligens og dyb læring ved brug af relativt lidt faktisk lyd fra personen," siger Selepak. "Sådan teknologi kan også være farlig og ødelæggende. En forstyrret person kunne genskabe stemmen fra en død ekskæreste eller kæreste og bruge den nye lyd til at sige hadefulde og sårende ting."
Det er kun i forbindelse med Alexa. Dyb falsk lyd kunne gå langt ud over det og overbevise folk om, at prominente politikere tror på ting, de ikke gør, f.eks. Men på den anden side, jo mere vi vænner os til disse dybe forfalskninger - måske i form af disse Alexa-stemmer - jo mere vil vi være skeptiske over for de mere uhyggelige forfalskninger. Så igen, i betragtning af hvor nemt det er at sprede løgne på Facebook, måske ikke.
Amazon har ikke sagt, om denne funktion kommer til Alexa, eller om det kun er en teknologidemo. Det håber jeg sådan set det gør. Tech er bedst, når det bruges på en humanistisk måde som denne, og selvom den nemme reaktion er at kalde det uhyggeligt, som Selepak siger, er det virkelig ikke så meget anderledes end at se gamle videoer eller lytte til gemte voicemails, som en karakter i et dovent manuskript.
Og hvis teknologien til dybe forfalskninger er let tilgængelig, hvorfor så ikke bruge den til at trøste os selv?