YouTubes New Age Restriction AI bekymrer LGBTQ+-fællesskabet

Indholdsfortegnelse:

YouTubes New Age Restriction AI bekymrer LGBTQ+-fællesskabet
YouTubes New Age Restriction AI bekymrer LGBTQ+-fællesskabet
Anonim

Key takeaways

  • YouTubes automatiske aldersbegrænsende software giver anledning til bekymring for LGBTQ+-indhold på platformen.
  • Virksomheden er blevet skæmmet af kontroverser om LGBTQ+-indholdsskabere, der cementerer tvivl.
  • Fordomme i maskinlæring giver troværdighed til ideen om, at dens ufuldkomne implementering af filtre sandsynligvis vil uretfærdigt begrænse adgangen.
Image
Image

Med en historie med uretfærdigt målretning mod LGBTQ+-indholdsskabere i sin modereringsproces, ses YouTubes nye AI-baserede teknologi som et bekymrende næste skridt for teknologigiganten.

På den officielle YouTube-blog i sidste uge afslørede videodelingsplatformen planer om at frigive en ny automatisk software til "mere konsekvent at anvende aldersbegrænsninger" på videoer, der anses for upassende for yngre seere.

Motiveret af nylige bekymringer om børn på appen, er det nye system baseret på maskinlæringssoftware til kunstig intelligens med evnen til at give afkald på menneskelige moderatorer for en mere automatisk proces. Problemet? YouTubes automatiserede systemer er blevet beskyldt for at fremhæve LGBTQ+-indhold og skabere blot for eksisterende.

Selv hvis det ikke er ondsindet, hvilket jeg ikke tror, det er, er det en mangel på input fra forskellige stemmer - eller i det mindste en mangel på respekt.

"Maskinlæring er informeret af og skabt af mennesker, og det er muligt at have disse forudsætninger, der er iboende i det eller lært af maskinen selv," sagde YouTuber Rowan Ellis i et telefoninterview med Lifewire. "Dens skævhed i forhold til [LGBTQ+]-indhold har været tydelig i de tidligere erfaringer fra [LGBTQ+] YouTubere, og jeg har ikke set beviser for, at der er blevet gjort noget for at stoppe det."

Baby, Now We Got Bad Blood

Ellis er en YouTuber, der skaber pædagogisk indhold med en feministisk og queer tilbøjelighed, og i 2017 offentliggjorde hun en video om virksomhedens begrænsede tilstand. Som et indledende forsøg på automatisk indholdsmoderering tillod denne tilstand brugere at forhåndsscreene "potentielt voksent indhold" fra søgeforslag og -anbefalinger.

Med over 100.000 visninger mener hun, at der var en bevidst indsats for at udelukke hendes kanal fra restriktioner på grund af hendes højlydte modstand mod overflod af YouTubes nye skridt mod moderation. Andre brugere på platformen var ikke så heldige, og de fik YouTube til at vide det.

Et gruppesøgsmål mod YouTube blev anlagt i august 2019 af en gruppe på otte LGBTQ+-skabere, som anklagede Silicon Valley-virksomheden for at begrænse queer- og transvideoskabere og indhold. Retssagen hævder, at webstedet bruger "ulovlig indholdsregulering, distribution og indtægtsgenereringspraksis, der stigmatiserer, begrænser, blokerer, demonetiserer og skader LGBT-sagsøgerne og det større LGBT-fællesskab økonomisk."Det er stadig på vej gennem de californiske domstole.

Maskinlæring er informeret af og skabt af mennesker, og det er muligt at have disse forudsætninger, der er iboende i det eller lært af maskinen selv.

I juni samme år modtog platformen en strøm af medieopmærksomhed efter at have nægtet hurtigt at irettesætte den populære konservative kommentator Steven Crowder for en måneder lang, homofobisk chikanekampagne mod Vox-journalisten og værten Carlos Maza. Dette cementerede, hvad Ellis sagde, er et mønster med onlineplatformen for at ignorere de unikke udfordringer, queer-skabere står over for. LGBTQ+-skaberes manglende tillid til YouTubes evne til at dukke op for dem er ikke uden værdi.

"Jeg tror ikke, de har forstået behovet for, at der er gennemsigtighed i forhold til sociale spørgsmål og sikring af lighed," sagde hun. "Der er stadig børn over hele verden, der er vokset op med ideen om, at det er forkert at være homoseksuel, og når de begynder at sætte spørgsmålstegn ved den tro, men finder den lukket ned af en sikker søgning eller begrænsning, vil det forstærke denne idé, at det er forkert, upassende, voksen, pervers og beskidt."

Failing to Auto-Learning

Med sin beskidte historie om LGBTQ+-indholdsskabere på sin platform, er der stadig bekymringer om implementeringen af maskinlæringssoftwarens evne til at skelne større normer. Don Heider, administrerende direktør ved Markkula Center for Anvendt Etik, antyder, at potentialet for dårskab er for stor en risiko til at spille.

"Det er svært at tro, at AI effektivt kan styre indhold fra flere lande med forskellige kulturelle normer og standarder," skrev han i et e-mailinterview. "AI ses for ofte som svaret på komplekse spørgsmål. På dette tidspunkt kæmper AI og den måde, den er skabt på med at håndtere selv simple opgaver, endsige enhver indholdsmoderering på et hvilket som helst niveau af kompleksitet."

YouTube besluttede at bruge AI-teknologi på grund af mangel på konsekvent moderering af menneskelige moderatorer, ifølge sin blog. At øge sin brug af computeriserede filtre til at fjerne videoer, der anses for uegnede, blev normen, og implementering af de samme procedurer for sine aldersbegrænsningspolitikker ses som et logisk næste skridt.

Som en virksomhed, der søger gradvist at forbedre sine processer efter langvarig kritik vedrørende dets forhold til børneforbrugere, kommer denne beslutning ikke som nogen overraskelse.

Jeg tror ikke, de har forstået behovet for, at der er gennemsigtighed i forhold til sociale spørgsmål og sikring af lighed.

Børn er blevet en vigtig demografisk gruppe for videodelingswebstedet. I august fandt digital-videoanalysefirmaet Tubular ud af, at indhold rettet mod børn, bortset fra musikvideoer, toppede månedslisten for de mest sete videoer på YouTube.

Virksomhedens interesse i at beskytte dette lukrative, nye kraftcenter på platformen giver mening. Værktøjerne, der bruges til at håndhæve denne beskyttelse, er dog stadig ubehagelige for dem, der allerede har befundet sig nedstrøms for virksomhedens modereringsprocedurer.

"Min bekymring er, at det vil gøre meget skade og ikke beskytte [LGBTQ+] unge, der har brug for informativt, ærligt og ærligt indhold, som mange [LGBTQ+] YouTubere kan levere, men som bliver markeret i deres system som upassende," sagde Ellis."Selvom det ikke er ondsindet, hvilket jeg ikke tror, det er, er det mangel på input fra forskellige stemmer - eller i det mindste mangel på respekt.

"Vi ser det hele tiden i teknologien. Når du ser på ansigtsgenkendelse, der ikke kan skelne mellem forskellige sorte ansigter, eller når vi ser på medicin og ser, at medicin kun er blevet testet på et bestemt køn. Disse er større samtaler, og YouTube er ikke undtaget fra det."