Hvordan algoritmisk bias kan skade teenagere

Indholdsfortegnelse:

Hvordan algoritmisk bias kan skade teenagere
Hvordan algoritmisk bias kan skade teenagere
Anonim

Key takeaways

  • Algorithmic bias er skadeligt for teenagere, der bruger meget tid på internettet, siger eksperter.
  • Twitter-brugere stødte for nylig på et problem, hvor sorte ansigter blev udslettet til fordel for hvide.
  • Teenagers udviklende hjerner kan være særligt modtagelige over for de skadelige virkninger af algoritmisk bias, siger forskere.
Image
Image

Fordommene, der er indbygget i noget teknologi, kendt som algoritmisk bias, kan være skadelig for mange grupper, men eksperter siger, at det er særligt skadeligt for teenagere.

Algorithmic bias, når computersystemer viser fordomsfulde resultater, er et voksende problem. Twitter-brugere fandt for nylig et eksempel på bias på platformen, da en billedregistreringsalgoritme, der beskærer fotos, klippede sorte ansigter ud til fordel for hvide. Virksomheden undskyldte for problemet, men har endnu ikke frigivet en rettelse. Det er et eksempel på den skævhed, som teenagere møder, når de går online, hvilket de gør mere end nogen anden aldersgruppe, siger eksperter.

"De fleste teenagere er ikke klar over, at sociale medievirksomheder har dem på plads for at promovere specifikt indhold, som de tror, brugerne vil kunne lide [for] at få dem til at blive så længe som muligt på platformen," Dr. Mai- Ly Nguyen Steers, assisterende professor ved School of Nursing ved Duquesne University, som studerer brugen af sociale medier blandt unge/højskolestuderende, sagde i et e-mailinterview.

"Selv hvis der er en vis grad af bevidsthed omkring algoritmen, er effekten af ikke at få nok likes og kommentarer stadig kraftig og kan påvirke teenageres selvværd," tilføjede Steers.

Developing Brains

Algorithmic bias kan påvirke teenagere på uforudsete måder, da deres præfrontale cortex stadig er under udvikling, forklarede Mikaela Pisani, Chief Data Scientist hos Rootstrap, i et e-mailinterview.

Effekten af ikke at få nok likes og kommentarer er stadig stærk og kan påvirke teenageres selvværd.

"Teenagere er særligt sårbare over for fænomenet 'Social Factory', hvor algoritmer skaber samfundsmæssige klynger på online platforme, hvilket fører til angst og depression, hvis teenagerens behov for social godkendelse ikke er opfyldt," sagde Pisani. "Algorithmer forenkler baseret på tidligere uperfekte data, hvilket fører til en overrepræsentation af stereotyper på bekostning af mere nuancerede tilgange til identitetsdannelse.

"Set et bredere synspunkt er vi også overladt til som samfund at stille spørgsmålstegn ved, om vi ønsker algoritmer, der former vores teenageres rejser ind i voksenlivet, og understøtter dette system overhovedet snarere end at kvæle individuel personlig vækst?"

På grund af disse problemer er der et stigende behov for at have teenagere i tankerne, når de designer algoritmer, siger eksperter.

"Baseret på input fra udviklingsspecialister, dataforskere og ungdomsforkæmpere, kunne det 21. århundredes politikker omkring databeskyttelse og algoritmisk design også konstrueres med unges særlige behov i tankerne," Avriel Epps-Darling, en doktorgrad studerende ved Harvard, skrev for nylig. "Hvis vi i stedet fortsætter med at bagatellisere eller ignorere den måde, hvorpå teenagere er sårbare over for algoritmisk racisme, vil skaderne sandsynligvis give genlyd gennem de kommende generationer."

Combating Bias

Indtil der er en løsning, forsøger nogle forskere at finde måder, hvorpå de kan mindske skaden på unge mennesker af partiske algoritmer.

"Interventioner har været fokuseret på at få teenagere til at erkende, at deres sociale mediemønstre påvirker deres mentale sundhed negativt og forsøger at finde på strategier til at afbøde det (f.eks. reduceret brug af sociale medier", sagde Steers.

"Nogle af de universitetsstuderende, vi har interviewet, har tilkendegivet, at de føler sig tvunget til at generere indhold for at forblive "relevant", selvom de ikke ønsker at gå ud eller skrive," fortsatte hun. "Men de føler, at de er nødt til at generere indhold for at bevare deres forbindelser med deres følgere eller venner."

Det ultimative svar kunne være at fjerne menneskelig skævhed fra computere. Men da programmører kun er mennesker, er det en svær udfordring, siger eksperter.

En mulig løsning er at udvikle computere, der er decentrale og programmerede til at glemme ting, de har lært, siger John Suit, Chief Technology Officer hos robotvirksomheden KODA.

"Gennem et decentraliseret netværk bliver data og analyser af disse data kompileret og analyseret fra flere punkter," sagde Suit i et e-mailinterview. "Data bliver indsamlet og behandlet ikke fra en enkelt AI-sindsbehandling inden for grænserne af dens algoritme, men hundreder eller endda tusinder.

"Når disse data indsamles og analyseres, glemmes gamle "konklusioner" eller overflødige data. Gennem dette system vil en algoritme, der muligvis er startet med bias, til sidst korrigere og erstatte denne bias, hvis den viser sig at være forkert."

Selv om bias kan være et ældgammelt problem, kan der være måder at bekæmpe det på, i det mindste online. At designe computere, der fjerner vores fordomme, er det første skridt.

Anbefalede: