Hvordan AI kunne overvåge sit farlige afkom

Indholdsfortegnelse:

Hvordan AI kunne overvåge sit farlige afkom
Hvordan AI kunne overvåge sit farlige afkom
Anonim

Key takeaways

  • Et nyt papir hævder, at kunstig intelligens kan afgøre, hvilke forskningsprojekter der kan have behov for mere regulering end andre.
  • Det er en del af en voksende indsats for at opdage, hvilken slags kunstig intelligens der kan være farlig.
  • En ekspert siger, at den virkelige fare ved kunstig intelligens er, at den kan gøre mennesker dumme.

Image
Image

Kunstig intelligens (AI) byder på mange fordele, men også nogle potentielle farer. Og nu har forskere foreslået en metode til at holde øje med deres computeriserede kreationer.

Et internation alt hold siger i et nyt papir, at kunstig intelligens kan afgøre, hvilke typer forskningsprojekter der kan have behov for mere regulering end andre. Forskerne brugte en model, der blander begreber fra biologi og matematik og er en del af en voksende indsats for at opdage, hvilken slags kunstig intelligens der kan være farlig.

"Selvfølgelig, mens den 'sci-fi' farlige brug af AI kan opstå, hvis vi beslutter det […], er det, der gør AI farlig, ikke AI selv, men [hvordan vi bruger det]," Thierry Rayna, sagde formanden for Technology for Change, ved École Polytechnique i Frankrig, til Lifewire i et e-mailinterview. "Implementering af AI kan enten være kompetenceforstærkende (for eksempel styrker det relevansen af menneskets/arbejdernes færdigheder og viden) eller kompetenceødelæggende, dvs. AI gør eksisterende færdigheder og viden mindre nyttige eller forældede."

Keeping Tabs

Forfatterne af det nylige papir skrev i et indlæg, at de byggede en model til at simulere hypotetiske AI-konkurrencer. De kørte simuleringen hundredvis af gange for at forsøge at forudsige, hvordan AI-løb i den virkelige verden kunne fungere.

"Den variabel, vi fandt var særlig vigtig, var "længden" af løbet - den tid, det tog vores simulerede racer at nå deres mål (et funktionelt kunstig intelligens-produkt), " skrev forskerne. "Når AI-løb nåede deres mål hurtigt, fandt vi ud af, at konkurrenter, som vi havde kodet til altid at overse sikkerhedsforanst altninger, altid vandt."

Derimod fandt forskerne ud af, at langsigtede AI-projekter ikke var så farlige, fordi vinderne ikke altid var dem, der overså sikkerheden. "I betragtning af disse resultater vil det være vigtigt for regulatorer at fastslå, hvor længe forskellige AI-løb sandsynligvis vil vare ved at anvende forskellige regler baseret på deres forventede tidsskalaer," skrev de. "Vores resultater tyder på, at én regel for alle AI-løb - fra sprint til maraton - vil føre til nogle resultater, der er langt fra ideelle."

David Zhao, administrerende direktør for Coda Strategy, et firma, der rådgiver om AI, sagde i et e-mailinterview med Lifewire, at det kan være svært at identificere farlig AI. Udfordringerne ligger i, at moderne tilgange til kunstig intelligens tager en dyb læringstilgang.

"Vi ved, at dyb læring giver bedre resultater i adskillige brugssager, såsom billedgenkendelse eller talegenkendelse," sagde Zhao. "Det er dog umuligt for mennesker at forstå, hvordan en deep learning-algoritme fungerer, og hvordan den producerer sit output. Derfor er det svært at sige, om en AI, der producerer gode resultater, er farlig, fordi det er umuligt for mennesker at forstå, hvad der foregår."

Software kan være "farlig", når den bruges i kritiske systemer, som har sårbarheder, der kan udnyttes af dårlige aktører eller producere forkerte resultater, sagde Matt Shea, strategidirektør hos AI-firmaet MixMode, via e-mail. Han tilføjede, at usikker kunstig intelligens også kunne resultere i ukorrekt klassificering af resultater, tab af data, økonomisk påvirkning eller fysisk skade.

"Med traditionel software koder udviklere algoritmer, som kan undersøges af en person for at finde ud af, hvordan man kan tilslutte en sårbarhed eller rette en fejl ved at se på kildekoden," sagde Shea."Med AI er en stor del af logikken dog skabt ud fra selve data, kodet ind i datastrukturer som neurale netværk og lignende. Dette resulterer i systemer, der er "sorte bokse", som ikke kan undersøges for at finde og rette sårbarheder som almindelig software."

Farer forude?

Mens AI er blevet afbildet i film som The Terminator som en ond kraft, der har til hensigt at ødelægge menneskeheden, kan de reelle farer være mere prosaiske, siger eksperter. Rayna foreslår for eksempel, at kunstig intelligens kunne gøre os dummere.

"Det kan fratage mennesker fra at træne deres hjerner og udvikle ekspertise," sagde han. “Hvordan kan du blive ekspert i venturekapital, hvis du ikke bruger det meste af din tid på at læse startups ansøgninger? Værre, AI er notorisk 'black box' og lidt forklarlig. Ikke at vide, hvorfor en bestemt AI-beslutning blev taget, betyder, at der vil være meget lidt at lære af den, ligesom du ikke kan blive en ekspertløber ved at køre rundt på stadion på en Segway."

Det er svært at sige, om en kunstig intelligens, der producerer gode resultater, er farlig, fordi det er umuligt for mennesker at forstå, hvad der foregår.

Den måske mest umiddelbare trussel fra AI er muligheden for, at det kan give partiske resultater, sagde Lyle Solomon, en advokat, der skriver om de juridiske implikationer af AI, i et e-mailinterview.

"AI kan hjælpe med at uddybe samfundsmæssige skel. AI er hovedsageligt bygget ud fra data indsamlet fra mennesker," tilføjede Solomon. "[Men] på trods af de store data, indeholder det minimale undergrupper og vil ikke inkludere, hvad alle tænker. Således vil data indsamlet fra kommentarer, offentlige beskeder, anmeldelser osv. med iboende skævheder få AI til at forstærke diskrimination og had."

Anbefalede: