Hvorfor Facebook har brug for klarere fejlinformationsregler

Indholdsfortegnelse:

Hvorfor Facebook har brug for klarere fejlinformationsregler
Hvorfor Facebook har brug for klarere fejlinformationsregler
Anonim

Key takeaways

  • Facebooks tilsynsråd har bedt om klarere misinformationsregler på webstedet for sociale medier.
  • Bestyrelsen har i øjeblikket omstødt flere beslutninger truffet af Facebook om at fjerne indlæg, som den betragtede som misinformation eller hadefulde ytringer, men som faktisk ikke var det.
  • Der er behov for klarere definitioner af, hvad der er og ikke er misinformation eller hadefulde ytringer, især med Facebooks internationale rækkevidde.
Image
Image

Facebooks tilsynsråd, som blev oprettet for yderligere at føre tilsyn med fjernelse og moderering af indlæg på hjemmesiden, har omstødt nogle tidligere beslutninger, der er truffet vedrørende indlæg, der blev fjernet, hvilket belyser et behov for klarere definitioner og regler.

Tilsynsrådet påtog sig sine første fem sager i december 2020. Mens et af indlæggene i anmeldelsen var fra USA, kom indlæggene i alt fra fire forskellige kontinenter, som alle kunne se udtalelserne i helt andre måder. På grund af dette skal de politikker, som Facebook sætter i gang, være kortfattede og skal fungere med det fællesskab, moderationsværktøjerne måtte fokusere på.

"Facebooks 'uafhængige anmeldelse'-aktivitet skal være konsekvent på tværs af internationale grænser," skrev Jim Isaak, en tidligere formand for Institute of Electrical and Electronics Engineers, og en 30-årig veteran fra teknologiindustrien, til os via e-mail. "Men det, der er 'hadefulde ytringer' i USA, kan defineres som patriotisk i andre autokratiske samfund, hvilket øger kompleksiteten af, hvad der gøres."

Lines in the Sand

Dette behov for konsistens og mere kortfattede regler er allerede på vej. Af de fem sager, som Facebooks tilsynsnævn påtog sig i december, besluttede gruppen at omstøde fire af sagerne, hvor to af dem klart viste behovet for bedre mådehold.

I en af de omstødte sager afgjorde bestyrelsen til fordel for en kvinde, hvis Instagram-opslag om brystkræft blev fjernet fra hjemmesiden automatisk for at bryde dens politik om voksennøgenhed og seksuel aktivitet.

Mens Facebook allerede havde gendannet fotografiet, gjorde bestyrelsen indsigelse mod, at det blev fjernet i første omgang. Bestyrelsen anbefalede endda, at Facebook satte et appelsystem på plads, der tillader brugere at se, hvornår et opslag er blevet fjernet, hvorfor det er blevet fjernet, og endda foreslå måder at tale med et menneske for at søge en løsning.

Image
Image

Bestyrelsen fandt ud af, at selvom kvinden havde delt et opslag, der indeholdt afdækkede og synlige kvindelige brystvorter, havde fotografiet ikke brudt Instagrams retningslinjer for fællesskabet. Standarden for voksennøgenhed og seksuel aktivitet, som Facebook opretholder i sine fællesskabsstandarder, tillader nøgenhed, når brugeren søger at øge opmærksomheden af en medicinsk årsag eller anden årsag.

Et andet indlæg, som blev delt fra Myanmar, indeholdt sprogbrug om muslimer, som bestyrelsen sagde kan betragtes som stødende, men som ikke nåede niveauet for hadefulde ytringer for at retfærdiggøre, at det blev fjernet eller betragtet som imod reglerne.

Det er her, tingene begynder at blive særligt vanskelige.

Hvilken vej er op?

"Facebook opererer internation alt," fort alte Isaak Lifewire via e-mail. "Hver jurisdiktion har sine egne regler, og Facebook kan blive holdt ansvarlig under reglerne i andre lande."

Facebook skal huske på alle reglerne for de områder, som det opererer inden for, når der opsættes nye politikker. Ved at gøre politikker uklare efterlader Facebook plads til fejl, der kan føre til, at tilsynsrådet bliver nødt til at omstøde flere sager i fremtiden.

Når spredningen af hadefulde ytringer og misinformation bliver så udbredt - især på sociale medier som Facebook og Twitter - er det vigtigt for disse virksomheder at tilbyde klare retningslinjer, som derefter kan bruges til at moderere fællesskabet.

Hvad er 'hate speech' i USA kan defineres som patriotisk i andre autokratiske samfund…

Selvfølgelig er der altid andre muligheder for at hjælpe med at afbøde den slags problemer. Faktisk blev en af de sager, som bestyrelsen oprindeligt havde til hensigt at føre tilsyn med i december, fjernet fra dokumentet efter brugerens sletning af indlægget.

Brugergenereret moderering er noget, vi allerede har set være vellykket på websteder som Wikipedia, og for nylig har Twitter selv optrappet ved at frigive Birdwatch, et fællesskabsdrevet modereringssystem for at hjælpe med at stoppe spredningen af misinformation.

Disse metoder har dog andre problemer, og derfor vil det være nøglen til, at Facebook kan tilbyde bedre moderering af sine apps og websteder i fremtiden at få en standardbaseline for fællesskabets forventninger.

Anbefalede: