Key takeaways
- Programmer med kunstig intelligens som Cogito forsøger at lære mennesker empati i omgangen med kunder.
- Eksperter er uenige om, hvorvidt det er muligt for en maskine at lære folk empati, eller om den blot finder datapunkter.
- Nogle eksperter er også bekymrede over, at undervisning i AI-empati kan fratage menneskeheden den følelse.
Forestil dig, at du arbejder i et callcenter, og en kunde ringer. Du svarer, og med det samme begynder det at gå dårligt. Kunden er vred, og spændingerne stiger.
Du begynder at sige ting, du måske senere vil fortryde. Pludselig vises en meddelelse på din computerskærm. "Empati Cue-Tænk over, hvordan kunden har det. Prøv at relatere."
Det er ikke en rigtig person, der fortæller dig, hvad du skal gøre. Det er en besked fra Cogito, et kunstig intelligens-program designet til at hjælpe arbejdere med at få empati med frustrerede opkaldere og øge ydeevnen. Cogito er et af et voksende antal AI-programmer, der forsøger at lære mennesker empati.
Der er en åbenlys ironi her. Menneskelige videnskabsmænd har i årtier forsøgt at lave mere naturtro computere. Nu fortæller maskinerne os, hvordan vi skal opføre os. Men kan software virkelig lære os at være mere empatiske? Det er et problem, der kan få dybtgående konsekvenser, da kunstig intelligens begynder at gennemsyre dagligdagen.
AI efterligner menneskelig adfærd
Fra et teknisk synspunkt er det klart, at kunstig intelligens kan opfange spor om, hvordan mennesker har det og give feedback.
"AI og maskinlæringssystemer er meget gode til at finde mønstre i data," sagde Adam Poliak, en postdoktor i datalogi ved Barnard College, i et e-mailinterview.
"Hvis vi giver en AI masser af eksempler på empatisk tekst, kan AI'en opdage mønstre og signaler, der fremkalder eller demonstrerer empati."
AI kan være programmeret til at nedbryde nogle af de menneskelige adfærd, der ledsager empati og minde mennesker om at udføre dem, men det er ikke at lære empati.
AI, der analyserer menneskelige reaktioner, kan hjælpe med at bygge bro over den voksende kløft mellem mennesker, når vi kommunikerer digit alt, sagde Bret Greenstein, en AI-ekspert hos Cognizant Digital Business, i et e-mailinterview.
"I løbet af det sidste år voksede re altid, video, stemme og beskeder hurtigere, end nogen kunne have forestillet sig, og med det fulgte enorme udfordringer med at skabe virkelig empatiske relationer uden egentlig at bruge fysisk tid med mennesker," han tilføjet.
AI kan hjælpe med at analysere og vurdere karakteristika som tone og følelser i tale, sagde Greenstein. "Dette kan hjælpe den person, der modtager kommunikation til bedre at forstå, hvad der var meningen, og hjælper den person, der 'taler' ved at vise, hvordan beskeder kan fortolkes," tilføjede han.
Mens virksomheder skynder sig at tjene penge på AI-træningssoftware som Cogito, er spørgsmålet om, hvorvidt AI kan lære mennesker empati, stadig åbent. Og svaret kan have lige så meget at gøre med filosofi som teknologi.
Ilia Delio er teolog ved Villanova University, hvis arbejde centrerer sig om krydsfeltet mellem tro og videnskab. Hun tror på, at kunstig intelligens kan lære empati.
Delio påpegede, at et team på MIT har bygget robotter, der kan efterligne menneskelige følelser såsom lykke, tristhed og medfølelse. "Mens robotfølelserne er programmeret, kan robotterne interagere med mennesker og dermed etablere eller forstærke neurale mønstre," sagde hun.
Kan en maskine forstå empati?
Eksperter definerer mindst tre former for empati, som alle involverer evnen til at forstå og forholde sig til en anden person, sagde Karla Erickson, sociolog ved Grinnell College i Iowa og forfatter til den kommende bog, Messy Humans: A Sociology of Human/Machine Relations, som udforsker vores forhold til teknologi.
"Relateret er ikke noget AI kan, og det er grundlaget for empati," sagde Erickson i et e-mailinterview.
"AI kan være programmeret til at nedbryde nogle af den menneskelige adfærd, der ledsager empati og minde mennesker om at udføre dem, men det er ikke at lære empati. At forholde sig, især med hensyn til empati, ville kræve, at lytteren har nødvendig kontekst til at relatere med dette, mener jeg, at en AIs 'liv' ikke omfatter tab, længsel, håb, smerte eller død."
Eksperter støder dog sammen om, hvorvidt kunstig intelligens kan lære os, hvordan man føler empati. En del af problemet er, at ikke alle er enige om, hvad "empati" eller "AI" overhovedet betyder. Begrebet kunstig intelligens bliver kastet meget rundt, men det er i øjeblikket ikke den slags intelligens, vi tænker på som menneskeligt.
Dette er rent ingeniørarbejde, og jeg er ikke i sådan en illusion om, at den pågældende AI selv har følelser eller virkelig forstår følelser.
"De "empatiske signaler" har intet at gøre med empati," sagde Michael Spezio, professor i psykologi, neurovidenskab og datavidenskab ved Scripps College, i et e-mailinterview.
"De er signaler fra stemmer, som menneskelige bedømmere har klassificeret som værende stemmer fra mennesker, der er irriterede/irriterede. Så det er bare at bruge menneskelig ekspertise i en matematisk model og så hævde, at modellen, der er bygget på menneskelig ekspertise - er intelligent. Begrænsede maskinlæringstilgange som denne hypes ofte som kunstig intelligens uden at være intelligente."
På Rensselaer Polytekniske Institut bygger Selmer Bringsjords laboratorium matematiske modeller af menneskelige følelser. Forskningen er beregnet til at skabe en AI, der kan score højt på følelsesmæssige intelligenstest og anvende dem på mennesker. Men Bringsjord, en AI-ekspert, siger, at enhver undervisning i AI er utilsigtet.
"Men dette er rent ingeniørarbejde, og jeg er ikke i en sådan illusion om, at den pågældende AI selv har følelser eller virkelig forstår følelser," sagde han i et e-mailinterview.
Hvad kunne gå g alt?
Mens virksomheder som Cogito ser en lys fremtid med AI-træning af mennesker, er andre observatører mere forsigtige.
Supportiv, en online mental sundhedstjeneste, bruger AI til at dirigere hver bruger, baseret på enhver enkelt tanke, de udtrykker, i re altid, til en emnespecifik peer-støttegruppe, der dynamisk mødes for brugere med lignende problemer.
Hver gruppe har en "superdrevet" menneskelig moderator, som holder den tekstbaserede chat sikker og troldefri og kan dukke op, igen gennem AI, relevante ressourcer, anbefalinger og henvisninger direkte ind i gruppesamtalen. Ved hjælp af kunstig intelligens træner Supportiv sine moderatorer til at være dygtige til at opdage intensiteten af følelsesmæssige behov.
"Empati er en muskel, vi bygger," sagde Zara Dana, en dataforsker hos Supportiv, i et e-mailinterview.
"Hvis vi begynder at bruge en krykke til at gå, vil vores muskler atrofiere. Jeg kan ikke lade være med at spekulere på, ville en afhængig arbejdstager føle sig sikker, hvis AI-systemet ikke er online en dag? Er hun i stand til at gøre det arbejde effektivt? Hvad er de langsigtede virkninger for arbejderne? Hvordan ville de navigere i komplekse sociale situationer, hvor AI er fraværende?"
Selv hvis brugen af kunstig intelligens til at undervise i empati virker, hvad sker der, når vi begynder at stole for meget på kunstig intelligens til at træne følelser? En mulig ulempe er, at mennesker kan blive mere knyttet til robotter end til andre mennesker, fordi robotter ikke kan vælge imod deres program, påpegede Delio.
"Den menneskelige evne til fri vilje placerer menneskelig handlefrihed i en mere tvetydig position," sagde Delio. "En person kan være medfølende den ene dag og hensynsløs den næste; en robot vil forblive konsekvent medfølende, medmindre den er trænet til at gøre andet."
Der er meget, der kan gå g alt, hvis kunstig intelligens lærer mennesker at opføre sig som mennesker, siger eksperter.
Vi har udviklet os til at være sociale dyr, og vores empati er central for vores evne til at forbinde os med andre og bekymre os om de kollektiver, som vi tilhører.
"Uden menneskeligt tilsyn kan eleven måske lære noget helt vildt," sagde Bringsjord.
"Stemmetone og tonehøjde er blot adfærdsmæssige korrelater uden noget indhold. Dollars til min stemme, mens jeg underviser i klasseværelset, ville blive læst af mange…som tegn på, at jeg er ked af det, mens jeg i virkeligheden" Jeg er bare lidenskabelig og har i det mindste brug for empati."
Hvis AI-træning af mennesker blomstrer, kan vi komme til at stole på det. Og det er ikke nødvendigvis en god ting.
"Denne træning devaluerer menneskelige færdigheder, som er betydelige, og flytter opmærksomheden mod AI, som om det var dem med ekspertise," sagde Erickson."Vi har udviklet os til at være sociale dyr, og vores empati er central for vores evne til at forbinde os med andre og bekymre os om de kollektiver, som vi tilhører."