Key takeaways
- Twitter håber på at afhjælpe det, brugere kalder racebias i deres software til forhåndsvisning af billeder.
- Tech-gigantens opfordring kan være den kulturelle beregning, industrien har brug for for at løse problemer med mangfoldighed.
- Techs mangel på mangfoldighed skader effektiviteten af dets teknologiske fremskridt.
Twitter er indstillet på at lancere en undersøgelse af sin billedbeskæringsalgoritme, efter at det blev et populært emne, der førte til en større samtale om mangfoldighedsspørgsmål i teknologiindustrien.
Det sociale medie-juggernaut skabte overskrifter, efter at brugere opdagede tilsyneladende racemæssige skævheder i deres billedforhåndsalgoritme. Opdagelsen skete, efter at Twitter-brugeren Colin Madland brugte platformen til at kalde Zooms manglende genkendelse af sine sorte kolleger, der brugte green screen-teknologien, men i et storslået show af ironi fandt han ud af, at Twitters billedbeskæringsalgoritme opførte sig på samme måde og deprioriterede sorte ansigter.
Det er bestemt et stort problem for enhver minoritet, men jeg tror også, der er et meget bredere problem.
Andre brugere kom ind i trenden, der udløste en række virale tweets, der viser, at algoritmen konsekvent prioriterede hvide og lysere ansigter, lige fra mennesker til tegneseriefigurer og endda hunde. Denne fiasko er et tegn på en større kulturel bevægelse i tech-industrien, der konsekvent har undladt at tage højde for minoritetsgrupper, hvilket er smittet over på den tekniske side.
"Det får minoriteter til at føle sig forfærdelige, som om de ikke er vigtige, og det kan bruges til andre ting, der kan forårsage mere alvorlig skade senere hen," Erik Learned-Miller, professor i datalogi ved universitetet fra Massachusetts, sagde i et telefoninterview."Når du har besluttet, hvad et stykke software kan bruges til, og alle de skader, der kan opstå, så begynder vi at tale om måder, hvorpå vi kan minimere risikoen for, at det sker."
Canary på tidslinjen
Twitter bruger neurale netværk til automatisk at beskære billeder, der er indlejret i tweets. Algoritmen formodes at detektere ansigter til forhåndsvisning, men den ser ud til at have en mærkbar hvid skævhed. Virksomhedens talskvinde Liz Kelley tweetede et svar på alle bekymringerne.
Kelley tweetede, "tak til alle, der rejste dette. vi testede for bias, før vi sendte modellen og fandt ikke beviser for race- eller kønsbias i vores test, men det er klart, at vi har flere analyser til gør. vi åbner vores arbejde, så andre kan gennemgå og replikere."
Medforfatter til hvidbogen "Facial Recognition Technologies in The Wild: A Call for a Federal Office", Learned-Miller er en førende forsker i udskejelserne af ansigtsbaseret AI-læringssoftware. Han har diskuteret den potentielle negative virkning af billedindlæringssoftware i årevis og har t alt om vigtigheden af at skabe en virkelighed, hvor disse skævheder afbødes efter bedste evne.
Mange algoritmer til ansigtsgenkendelsesteknologi bruger referencesæt til data, ofte kendt som træningssæt, som er en samling billeder, der bruges til at finjustere adfærden af billedindlæringssoftware. Det giver i sidste ende AI'en mulighed for let at genkende en bred vifte af ansigter. Disse referencesæt kan dog mangle en mangfoldig pulje, hvilket fører til problemer som dem, som Twitter-teamet oplever.
"Det er bestemt et stort problem for enhver minoritet, men jeg tror også, der er et meget bredere problem," sagde Learned-Miller. "Det relaterer sig til en mangel på mangfoldighed i teknologisektoren og behovet for en centraliseret, regulerende kraft til at vise den korrekte brug af denne slags kraftfuld software, der er tilbøjelig til misbrug og misbrug."
Teknikken mangler mangfoldighed
Twitter er muligvis det seneste teknologiselskab på hugget, men dette er langt fra et nyt problem. Teknologiområdet er fortsat et overvejende hvidt, evigt mandsdomineret felt, og forskere har fundet ud af, at manglen på mangfoldighed forårsager en replikering af systemiske, historiske ubalancer i den udviklede software.
I en rapport fra 2019 fra New York Universitys AI Now Institute fandt forskere, at sorte udgør mindre end 6 procent af arbejdsstyrken hos de bedste teknologivirksomheder i landet. Tilsvarende tegner kvinder sig kun for 26 procent af arbejderne i marken - en statistik lavere end deres andel i 1960.
Det får minoriteter til at føle sig forfærdeligt, som om de ikke er vigtige, og det kan bruges til andre ting, der kan forårsage mere alvorlig skade senere hen.
På overfladen kan disse repræsentationsproblemer virke banale, men i praksis kan skaden være dyb. Forskere i AI Now Institute-rapporten antyder, at dette kaus alt relaterer sig til problemer med software, der ofte ikke tager højde for ikke-hvide og ikke-mandlige populationer. Uanset om det er infrarøde sæbedispensere, der ikke kan registrere mørkere hud, eller Amazons AI-software, der ikke kan differentiere kvindeansigter fra deres mandlige modparters, fører en fejl i forhold til mangfoldigheden i den teknologiske industri til, at teknologien ikke kan håndtere en mangfoldig verden.
"Der er mange mennesker, der ikke har gennemtænkt problemerne og ikke rigtig er klar over, hvordan disse ting kan forårsage skade, og hvor betydelige disse skader er," foreslog Learned-Miller om AI-billedlæring. "Forhåbentlig er det antal mennesker ved at falde!"