Hvordan hallucinationer kunne hjælpe AI med at forstå dig bedre

Indholdsfortegnelse:

Hvordan hallucinationer kunne hjælpe AI med at forstå dig bedre
Hvordan hallucinationer kunne hjælpe AI med at forstå dig bedre
Anonim

Key takeaways

  • En ny maskinlæringsmodel hallucinerer et billede af en sætnings udseende på et sprog for at hjælpe oversættelsen.
  • AI-systemet, kaldet VALHALLA, er designet til at efterligne den måde, mennesker opfatter sprog på.
  • Det nye system er en del af en voksende bevægelse for at bruge kunstig intelligens til at forstå sprog.
Image
Image

Den menneskelige metode til at visualisere billeder, mens man oversætter ord, kunne hjælpe kunstig intelligens (AI) med at forstå dig bedre.

En ny maskinlæringsmodel hallucinerer et billede af, hvordan en sætning ser ud på et sprog. Ifølge et nyligt forskningspapir bruger teknikken derefter visualisering og andre spor til at hjælpe med oversættelse. Det er en del af en voksende bevægelse at bruge kunstig intelligens til at forstå sprog.

"Hvordan folk taler og skriver er unikt, fordi vi alle har lidt forskellige toner og stilarter," fort alte Beth Cudney, en professor i dataanalyse ved Maryville University, som ikke var involveret i forskningen, til Lifewire i et e-mailinterview. "Det er svært at forstå kontekst, fordi det er som at håndtere ustrukturerede data. Det er her, naturlig sprogbehandling (NLP) er nyttig. NLP er en gren af AI, der adresserer forskellene i, hvordan vi kommunikerer ved hjælp af maskinlæseforståelse. Den vigtigste forskel i NLP, som en gren af AI, fokuserer den ikke blot på den bogstavelige betydning af de ord, vi taler eller skriver. Den ser på betydningen."

Spørg Alice

Det nye AI-system, kaldet VALHALLA, skabt af forskere fra MIT, IBM og University of California i San Diego, er designet til at efterligne den måde, mennesker opfatter sprog på. Ifølge videnskabsmænd forbedrer brug af sensorisk information, såsom multimedie, parret med nye og ukendte ord, såsom flashcards med billeder, sprogtilegnelse og -fastholdelse.

Disse systemer øger styrken af chatbots, der i øjeblikket kun er trænet og i stand til specifikke samtaler…

Teamet hævder, at deres metode forbedrer nøjagtigheden af maskinoversættelse i forhold til kun tekstoversættelse. Forskerne brugte en encoder-dekoder-arkitektur med to transformere, en type neural netværksmodel, der er egnet til sekvensafhængige data, som sprog, der kan være opmærksomme på nøgleord og semantik i en sætning. Den ene transformer genererer en visuel hallucination, og den anden udfører multimodal oversættelse ved hjælp af output fra den første transformer.

"I scenarier i den virkelige verden har du muligvis ikke et billede med hensyn til kildesætningen," sagde Rameswar Panda, et af forskerteamets medlemmer, i en pressemeddelelse. "Så vores motivation var grundlæggende: I stedet for at bruge et eksternt billede under inferens som input, kan vi så bruge visuelle hallucinationer - evnen til at forestille os visuelle scener - for at forbedre maskinoversættelsessystemer?"

AI-forståelse

Betydelig forskning er fokuseret på at fremme NLP, påpegede Cudney. For eksempel var Elon Musk med til at stifte Open AI, som arbejder på GPT-3, en model, der kan tale med et menneske og er kyndig nok til at generere softwarekode i Python og Java.

Google og Meta arbejder også på at udvikle konversations-AI med deres system kaldet LAMDA. "Disse systemer øger styrken af chatbots, der i øjeblikket kun er trænet og i stand til at udføre specifikke samtaler, hvilket sandsynligvis vil ændre ansigtet på kundesupport og helpdeske," sagde Cudney.

Aaron Sloman, medstifteren CLIPr, en AI-teknologivirksomhed, sagde i en e-mail, at store sprogmodeller som GPT-3 kan lære af meget få træningseksempler for at forbedre tekstresuméer baseret på menneskelig feedback. For eksempel, sagde han, kan du give en stor sprogmodel et matematisk problem og bede AI om at tænke trin-for-trin.

"Vi kan forvente, at der vil blive udtrukket større indsigt og ræsonnement fra store sprogmodeller, efterhånden som vi lærer mere om deres evner og begrænsninger," tilføjede Sloman. "Jeg forventer også, at disse sprogmodeller skaber mere menneskelignende processer, efterhånden som modelbyggere udvikler bedre måder at finjustere modellerne til specifikke opgaver af interesse."

Georgia Tech computerprofessor Diyi Yang forudsagde i et e-mailinterview, at vi vil se mere brug af NLP-systemer (natural language processing) i vores daglige liv, lige fra NLP-baserede personlige assistenter til at hjælpe med e-mails og telefonopkald, til kyndige dialogsystemer til informationssøgning i rejser eller sundhedsvæsen."Såvel som fair AI-systemer, der kan udføre opgaver og hjælpe mennesker på en ansvarlig og partisk måde," tilføjede Yang.

Enorme AI-modeller, der bruger billioner af parametre såsom GPT-3 og DeepText, vil fortsætte med at arbejde hen imod en enkelt model til alle sprogapplikationer, forudsagde Stephen Hage, maskinlæringsingeniør hos Dialexa, i et e-mailinterview. Han sagde, at der også vil være nye typer modeller skabt til specifikke formål, såsom stemmestyret online shopping.

"Et eksempel kan være en shopper, der siger 'Vis mig denne øjenskygge i midnatsblå med mere glorie' for at vise denne nuance på personens øjne med en vis kontrol over, hvordan den påføres," tilføjede Hage.

Anbefalede: