AI kunne endelig hjælpe med at slå ned på hadefulde ytringer

Indholdsfortegnelse:

AI kunne endelig hjælpe med at slå ned på hadefulde ytringer
AI kunne endelig hjælpe med at slå ned på hadefulde ytringer
Anonim

Key takeaways

  • Et nyt softwareværktøj gør det muligt for AI at overvåge internetkommentarer for hadefulde ytringer.
  • AI er nødvendig for at moderere internetindhold på grund af den enorme mængde materiale, der overgår menneskelige evner.
  • Men nogle eksperter siger, at AI-overvågning af tale giver anledning til bekymringer om privatlivets fred.
Image
Image

I takt med at online hadefulde ytringer stiger, siger en virksomhed, at den måske har en løsning, der ikke er afhængig af menneskelige moderatorer.

En opstart kaldet Spectrum Labs leverer kunstig intelligens-teknologi til platformudbydere for at detektere og lukke giftige udvekslinger i re altid. Men eksperter siger, at AI-overvågning også rejser privatlivsproblemer.

"AI-overvågning kræver ofte, at man ser på mønstre over tid, hvilket nødvendiggør, at dataene opbevares," fort alte David Moody, en seniormedarbejder hos Schellman, et firma til vurdering af sikkerhed og overholdelse af privatlivets fred, til Lifewire i et e-mailinterview. "Disse data kan omfatte data, som lovene har markeret som privatlivsdata (personligt identificerbare oplysninger eller PII)."

Mere hadetale

Spectrum Labs lover en højteknologisk løsning på det ældgamle problem med hadefulde ytringer.

"I gennemsnit hjælper vi platforme med at reducere indsatsen for moderering af indhold med 50 % og øge registreringen af giftig adfærd med 10 gange," hævder virksomheden på sin hjemmeside.

Spectrum siger, at det arbejdede sammen med forskningsinstitutter med ekspertise i specifik skadelig adfærd for at opbygge over 40 adfærdsidentifikationsmodeller. Virksomhedens Guardian-indholdsmodereringsplatform blev bygget af et team af dataforskere og moderatorer for at "støtte beskyttelse af samfund mod toksicitet."

Der er et voksende behov for måder at bekæmpe hadefulde ytringer på, da det er umuligt for et menneske at overvåge hver eneste del af onlinetrafik, Dylan Fox, CEO for AssemblyAI, en startup, der leverer talegenkendelse og har kunder involveret i at overvåge had tale, fort alte Lifewire i et e-mailinterview.

"Der er omkring 500 millioner tweets om dagen alene på Twitter," tilføjede han. "Selv hvis én person kunne tjekke et tweet hvert 10. sekund, ville twitter være nødt til at ansætte 60 tusinde mennesker til at gøre dette. I stedet bruger vi smarte værktøjer som AI til at automatisere processen."

I modsætning til et menneske kan kunstig intelligens fungere 24/7 og potentielt være mere retfærdig, fordi den er designet til ensartet at anvende sine regler på alle brugere uden at nogen personlig overbevisning forstyrrer, sagde Fox. Der er også en omkostning for de mennesker, der skal overvåge og moderere indhold.

"De kan blive udsat for vold, had og grimme handlinger, som kan være skadelige for en persons mentale sundhed," sagde han.

Spectrum er ikke den eneste virksomhed, der søger at opdage online hadefulde ytringer automatisk. For eksempel lancerede Center Malaysia for nylig en online tracker designet til at finde hadefulde ytringer blandt malaysiske netbrugere. Den software, de udviklede kaldet Tracker Benci, bruger maskinlæring til at opdage hadefulde ytringer online, især på Twitter.

Udfordringen er, hvordan man skaber rum, hvor folk virkelig kan engagere sig konstruktivt med hinanden.

Privatlivsproblemer

Mens tekniske løsninger som Spectrum kan bekæmpe hadefulde ytringer på nettet, rejser de også spørgsmål om, hvor meget politi computere skal kunne.

Der er implikationer for ytringsfrihed, men ikke kun for de talere, hvis indlæg ville blive fjernet som hadefulde ytringer, fort alte Irina Raicu, direktør for internetetik ved Markkula Center for Anvendt Ethics ved Santa Clara University, til Lifewire i en e-mail interview.

"At tillade chikane i "ytringsfrihedens navn" har drevet målene for sådan tale (især når de er rettet mod bestemte individer) til at holde op med at tale - for helt at opgive forskellige samtaler og platforme," sagde Raicu."Udfordringen er, hvordan man skaber rum, hvor folk virkelig kan engagere sig konstruktivt med hinanden."

AI-taleovervågning bør ikke rejse problemer med privatlivets fred, hvis virksomheder bruger offentligt tilgængelige oplysninger under overvågning, sagde Fox. Men hvis virksomheden køber detaljer om, hvordan brugere interagerer på andre platforme for at forhåndsidentificere problematiske brugere, kan det give anledning til bekymringer om privatlivets fred.

"Det kan helt sikkert være lidt af en gråzone, afhængigt af applikationen," tilføjede han.

Image
Image

Justin Davis, CEO for Spectrum Labs fort alte Lifewire i en e-mail, at virksomhedens teknologi kan gennemgå 2 til 5 tusinde rækker af data inden for brøkdele af et sekund. "Vigtigst af alt kan teknologi reducere mængden af giftigt indhold, som menneskelige moderatorer udsættes for," sagde han.

Vi er muligvis på nippet til en revolution inden for kunstig intelligens, der overvåger menneskelig tale og tekst online. Fremtidige fremskridt inkluderer bedre uafhængige og autonome overvågningsmuligheder til at identificere hidtil ukendte former for hadefuld tale eller andre censurerbare mønstre, der vil udvikle sig, sagde Moody.

AI vil også snart være i stand til at genkende mønstre i de specifikke talemønstre og relatere kilder og deres andre aktiviteter gennem nyhedsanalyse, offentlige registreringer, trafikmønsteranalyse, fysisk overvågning og mange andre muligheder, tilføjede han.

Men nogle eksperter siger, at mennesker altid skal arbejde med computere for at overvåge hadefulde ytringer.

"AI alene vil ikke fungere," sagde Raicu. "Det skal anerkendes som ét ufuldkomment værktøj, der skal bruges sammen med andre svar."

Rettelse 25/1/2022: Tilføjet citat fra Justin Davis i 5. afsnit fra slutningen for at afspejle en e-mail efter udgivelsen.

Anbefalede: