Key takeaways
- Virksomheder bruger i stigende grad kunstig intelligens, der forklarer, hvordan det får resultater.
- LinkedIn øgede for nylig sin abonnementsindtægt efter brug af kunstig intelligens, der forudsagde, at kunder risikerer at annullere, og beskrev, hvordan det nåede frem til sine konklusioner.
- The Federal Trade Commission har sagt, at kunstig intelligens, der ikke kan forklares, kunne undersøges.
En af de hotteste nye trends inden for software kunne være kunstig intelligens (AI), som forklarer, hvordan den opnår sine resultater.
Forklarlig AI betaler sig, da softwarevirksomheder forsøger at gøre AI mere forståelig. LinkedIn øgede for nylig sin abonnementsindtægt efter at have brugt kunstig intelligens, der forudsagde, at kunder risikerede at annullere, og beskrev, hvordan det nåede frem til sine konklusioner.
"Explainable AI handler om at kunne stole på outputtet og forstå, hvordan maskinen kom dertil," fort alte Travis Nixon, CEO for SynerAI og Chief Data Science, Financial Services hos Microsoft, til Lifewire i et e-mailinterview.
""Hvordan?" er et spørgsmål, der stilles til mange AI-systemer, især når der træffes beslutninger eller produceres output, der ikke er ideelle," tilføjede Nixon. "Fra at behandle forskellige racer uretfærdigt til at forveksle et skaldet hoved for en fodbold, er vi nødt til at vide, hvorfor AI-systemer producerer deres resultater. Når vi først forstår 'hvordan', positionerer det virksomheder og enkeltpersoner til at svare 'hvad nu?'."
Lær AI at kende
AI har vist sig at være nøjagtig og laver mange typer forudsigelser. Men kunstig intelligens er ofte i stand til at forklare, hvordan den kom til sine konklusioner.
Og regulatorer lægger mærke til problemet med AI-forklaring. Federal Trade Commission har sagt, at AI, der ikke kan forklares, kunne undersøges. EU overvejer at vedtage loven om kunstig intelligens, som indeholder krav om, at brugere skal kunne fortolke AI-forudsigelser.
Linkedin er blandt de virksomheder, der mener, at forklarlig kunstig intelligens kan hjælpe med at øge indtjeningen. Før stolede LinkedIn-sælgere på deres viden og brugte enorme mængder tid på at gennemsøge offline data for at identificere, hvilke konti der sandsynligvis ville fortsætte med at drive forretning, og hvilke produkter de kunne være interesserede i under den næste kontraktfornyelse. For at løse problemet startede LinkedIn et program kaldet CrystalCandle, der spotter trends og hjælper sælgere.
I et andet eksempel sagde Nixon, at under oprettelsen af en kvotefastsættelsesmodel for en virksomheds salgsstyrke, var hans virksomhed i stand til at inkorporere forklarlig AI for at identificere, hvilke egenskaber der pegede på en succesfuld nyansættelse.
"Med dette output var denne virksomheds ledelse i stand til at genkende, hvilke sælgere de skulle sætte på 'fast track', og hvilke der havde brug for coaching, alt før der opstod større problemer," tilføjede han.
Mange anvendelser til forklarende kunstig intelligens
Forklarlig AI bliver i øjeblikket brugt som en mavekontrol for de fleste dataforskere, sagde Nixon. Forskerne kører deres model gennem enkle metoder, sikrer, at der ikke er noget, der er helt ude af drift, og send derefter modellen.
"Dette skyldes til dels, at mange datavidenskabelige organisationer har optimeret deres systemer omkring 'tid over værdi' som en KPI, hvilket fører til forhastede processer og ufuldstændige modeller," tilføjede Nixon.
Jeg er bekymret for, at tilbageslaget fra uansvarlige modeller kan sætte AI-industrien tilbage på en seriøs måde.
Folk bliver ofte ikke overbevist af resultater, som AI ikke kan forklare. Raj Gupta, Chief Engineering Officer hos Cogito, sagde i en e-mail, at hans virksomhed har undersøgt kunder og fundet ud af, at næsten halvdelen af forbrugerne (43%) ville have en mere positiv opfattelse af en virksomhed og AI, hvis virksomheder var mere eksplicitte omkring deres brug af teknologien.
Og det er ikke kun finansielle data, der får en hjælpende hånd fra forklarlig AI. Et område, der drager fordel af den nye tilgang, er billeddata, hvor det er nemt at angive, hvilke dele af et billede algoritmen mener er essentielle, og hvor det er let for et menneske at vide, om den information giver mening, Samantha Kleinberg, lektor ved Stevens Institute of Technology og en ekspert i forklarlig AI, fort alte Lifewire via e-mail.
"Det er meget sværere at gøre det med et EKG eller kontinuerlige glukosemonitordata," tilføjede Kleinberg.
Nixon forudsagde, at forklarlig AI ville være grundlaget for hvert AI-system i fremtiden. Og uden forklarlig AI kunne resultaterne være forfærdelige, sagde han.
"Jeg håber, vi gør fremskridt på denne front langt nok til at tage forklarlig AI for givet i de kommende år, og at vi ser tilbage på det tidspunkt i dag overrasket over, at nogen ville være skøre nok til at implementere modeller, som de ikke forstod, " han tilføjede."Hvis vi ikke møder fremtiden på denne måde, er jeg bekymret for, at tilbageslaget fra uansvarlige modeller kan sætte AI-industrien tilbage på en seriøs måde."