Liveoversættelse kan pege på Apple-brillernes fremtid

Indholdsfortegnelse:

Liveoversættelse kan pege på Apple-brillernes fremtid
Liveoversættelse kan pege på Apple-brillernes fremtid
Anonim

Key takeaways

  • Nye tilgængelighedsfunktioner omfatter livetekster, der er genereret i re altid til enhver video eller samtale.
  • Hvis denne funktion ikke er lavet til Apples rygter om AR-briller, spiser vi vores virtuelle emoji-hat.
  • Apple har en historie med at prøve fremtidige produktfunktioner inde i nuværende enheder.
Image
Image

Apples nye Live Captions føjer undertekster i re altid til alt, inklusive den person, der står foran dig.

Ligesom Googles koncept AR Glasses, annonceret i denne uge. Apples Live Captions kan tage indkommende lyd og transskribere den med det samme. Forskellen er, at Apples version vil blive sendt "senere i år", hvilket sandsynligvis betyder, at den vil være i efterårets iOS 16-udgivelse. Men den rigtige nyhed her er, at dette er Apples mest oplagte stik endnu til at afprøve fremtidige Apple-briller-funktioner.

"Som en, der har to forældre, der begge har svært ved at høre, er dette en stor hjælp," skriver den Apple-centrerede journalist Dan Moren på sin personlige Six Colors-blog. "Jeg er nysgerrig efter at se, hvor godt funktionen faktisk fungerer, og hvordan den håndterer et stort FaceTime-opkald med mange deltagere; Apple siger, at det vil tilskrive dialog til specifikke højttalere."

Sleight of Hand

Live Captions, som vi kommer til om et sekund, er langt fra den første AR-brillefunktion, som Apple har prøvet. Det mest oplagte er inkluderingen af LIDAR-kameraer i iPhones og iPads. Disse scannere hjælper med at skabe et nøjagtigt 3D-kort over verden udenfor og giver iPhone mulighed for at overlejre 3D-modeller på den virkelige verden, der vises gennem kameraet.

Jeg er ikke sikker på, at vi kan stole bedre på Apples live-oversættelse end Googles nye AR-briller, men jeg tror, vi kan stole på, at konkurrencen vil hjælpe med at skabe de bedste resultater.

Hidtil er denne teknologi blevet brugt til at lade dig se nye Apple-computere på dit eget skrivebord, spille AR Lego-spil, teste IKEA-møbler i din stue og så videre. LIDAR-hardware er så absurd overflødig i iPhones, at den kun må være der, så Apple kan finpudse hardwaren og softwaren til en rigtig AR-applikation: Apple Glasses.

Det er heller ikke kun visuel AR. AirPods har tilføjet pæne AR-funktioner i årevis nu. Den seneste, Spatial Audio, narrer vores hjerner til at tro, at lyde kommer fra alle omkring os og er en fantastisk måde at se film på eller lytte til afslappende lydlandskaber. Det er en fantastisk funktion, men den bliver endnu bedre, når den fungerer sammen med Apples forventede fremtidige brilleprodukt. At være i stand til at placere lyde i et 3D-rum for at matche AR-objekterne vil virkelig sælge illusionen.

Eller hvad med Live Text, iOS 15-teknologien, der genkender og læser tekst på billeder og live gennem iPhones kamera? Det er en anden funktion, der er ideel til at læse skilte, menuer og anden tekst gennem AR-briller.

Live billedtekster

Live Captions tager tale fra et FaceTime-opkald, videokonferenceapps, streaming af video og så videre. Din telefon tager lyden og transskriberer den på farten og leverer undertekster, som det ses i denne video.

Det er fantastisk, men hvad der er endnu bedre er, at intet nogensinde forlader din iPhone. Billedteksterne, siger Apple, genereres på enheden i stedet for at blive sendt til en server. Dette er ikke kun mere privat, det er også meget hurtigere.

"Jeg er ikke sikker på, at vi kan stole bedre på Apples live-oversættelse end Googles nye AR-briller, men jeg tror, vi kan stole på, at konkurrencen vil hjælpe med at skabe de bedste resultater," siger Kristen Bolig, grundlægger af SecurityNerd, til Lifewire via e-mail."Nu hvor konkurrencen er offentlig, og problemerne med denne form for teknologi (privatliv, nøjagtighed osv.) er velkendte, vil begge virksomheder ikke kun være i et kapløb om at skabe det bedste produkt først, men også om at skabe det produkt, der bedst løser disse problemer."

Vi forventer også en form for indbygget automatisk oversættelse, som du kan få lige nu ved at bruge tredjepartsappen Navi til automatisk at oversætte dine FaceTime-samtaler eller måske en måde at gemme disse transskriptioner under interviews for nemmere adgang senere.

Vi har længe nydt godt af fremragende tilgængelighedsfunktioner fra Apple, som lader os tilpasse vores iOS-enheder i et næsten absurd omfang. Fra at justere skærmen for at gøre farver og tekst nemmere at se, til at kontrollere hele brugergrænsefladen med eksterne enheder, til at få telefonen til at give dig besked, når nogen ringer på døren, eller en varevogn ankommer udenfor.

Nu får vi alle fordelene ved Apples øgede forskning i augmented reality-teknologi. Vi er måske ligeglade med IKEA eller LEGO, og vi ønsker heller ikke nogensinde at købe et par af Apples sagnomspundne AR-brilleenhed, men det betyder ikke, at vi ikke alle kan nyde frugterne af den forskning.

Anbefalede: