Key takeaways
- Forskere har skabt teknikker, der lader brugere rangere resultaterne af en maskinlæringsmodels adfærd.
- Eksperter siger, at metoden viser, at maskiner er ved at indhente menneskers tænkeevner.
- Fremskridt inden for kunstig intelligens kunne fremskynde udviklingen af computeres evne til at forstå sprog og revolutionere den måde, kunstig intelligens og mennesker interagerer på.
En ny teknik, der måler ræsonnementet af kunstig intelligens (AI) viser, at maskiner er ved at indhente mennesker i deres evner til at tænke, siger eksperter.
Forskere ved MIT og IBM Research har skabt en metode, der gør det muligt for en bruger at rangere resultaterne af en maskinlæringsmodels adfærd. Deres teknik, kaldet Shared Interest, inkorporerer målinger, der sammenligner, hvor godt en models tankegang matcher folks.
"I dag er AI i stand til at nå (og i nogle tilfælde overgå) menneskelig præstation i specifikke opgaver, herunder billedgenkendelse og sprogforståelse," Pieter Buteneers, direktør for ingeniørvirksomhed i maskinlæring og AI ved kommunikation firma Sinch, fort alte Lifewire i et e-mailinterview. "Med naturlig sprogbehandling (NLP) kan AI-systemer fortolke, skrive og tale sprog såvel som mennesker, og AI'en kan endda justere sin dialekt og tone for at tilpasse sig sine menneskelige jævnaldrende."
Artificial Smarts
AI producerer ofte resultater uden at forklare, hvorfor disse beslutninger er korrekte. Og værktøjer, der hjælper eksperter med at forstå en models ræsonnement, giver ofte kun indsigt, kun ét eksempel ad gangen. AI trænes norm alt ved hjælp af millioner af datainput, hvilket gør det svært for et menneske at evaluere nok beslutninger til at identificere mønstre.
I et nyligt papir sagde forskerne, at Shared Interest kunne hjælpe en bruger med at afdække tendenser i en models beslutningstagning. Og denne indsigt kunne give brugeren mulighed for at beslutte, om en model er klar til at blive implementeret.
“Ved at udvikle Shared Interest er vores mål at være i stand til at opskalere denne analyseproces, så du på et mere glob alt plan kan forstå, hvad din models adfærd er,” Angie Boggust, en medforfatter af papiret, sagde i pressemeddelelsen.
Shared Interest bruger en teknik, der viser, hvordan en maskinlæringsmodel tog en bestemt beslutning, kendt som fremtrædende metoder. Hvis modellen klassificerer billeder, fremhæver saliency-metoder områder af et billede, der er vigtige for modellen, når den træffer sin beslutning. Delt interesse fungerer ved at sammenligne fremtrædende metoder med menneskeskabte annoteringer.
Forskere brugte Shared Interest til at hjælpe en hudlæge med at afgøre, om han skulle stole på en maskinlæringsmodel, der er designet til at hjælpe med at diagnosticere kræft ud fra fotos af hudlæsioner. Shared Interest gjorde det muligt for hudlægen hurtigt at se eksempler på modellens korrekte og forkerte forudsigelser. Hudlægen besluttede, at han ikke kunne stole på modellen, fordi den lavede for mange forudsigelser baseret på billedartefakter snarere end faktiske læsioner.
“Værdien her er, at vi ved at bruge Shared Interest er i stand til at se disse mønstre opstå i vores models adfærd. På omkring en halv time var dermatologen i stand til at beslutte, om han skulle stole på modellen eller ej, og om den skulle implementeres eller ej,” sagde Boggust.
Begrundelsen bag en models beslutning er vigtig for både maskinlæringsforskeren og beslutningstageren.
Måler fremskridt
Arbejdet af MIT-forskere kan være et væsentligt skridt fremad for AI's fremskridt hen imod intelligens på menneskeligt niveau, sagde Ben Hagag, forskningschef hos Darrow, en virksomhed, der bruger maskinlæringsalgoritmer, det fort alte Lifewire i et e-mailinterview.
"Begrundelsen bag en models beslutning er vigtig for både maskinlæringsforskeren og beslutningstageren," sagde Hagag. "Den førstnævnte ønsker at forstå, hvor god modellen er, og hvordan den kan forbedres, mens sidstnævnte ønsker at udvikle en følelse af tillid til modellen, så de er nødt til at forstå, hvorfor dette output blev forudsagt."
Men Hagag advarede om, at MIT-forskningen er baseret på den antagelse, at vi forstår eller kan kommentere menneskelig forståelse eller menneskelig ræsonnement.
"Der er dog en mulighed for, at dette måske ikke er nøjagtigt, så mere arbejde med at forstå menneskelig beslutningstagning er nødvendigt," tilføjede Hagag.
Fremskridt inden for AI kunne fremskynde udviklingen af computeres evne til at forstå sprog og revolutionere den måde, AI og mennesker interagerer på, sagde Buteneers. Chatbots kan forstå hundredvis af sprog ad gangen, og AI-assistenter kan scanne tekster for svar på spørgsmål eller uregelmæssigheder.
"Nogle algoritmer kan endda identificere, hvornår meddelelser er svigagtige, hvilket kan hjælpe både virksomheder og forbrugere med at luge ud spammeddelelser," tilføjede Buteneers.
Men, sagde Buteneers, AI laver stadig nogle fejl, som mennesker aldrig ville gøre. "Selvom nogle bekymrer sig om, at AI vil erstatte menneskelige job, er virkeligheden, at vi altid har brug for folk, der arbejder sammen med AI-bots for at hjælpe med at holde dem i skak og holde disse fejl i skak, samtidig med at vi bevarer et menneskeligt præg i forretningen," tilføjede han.