Key takeaways
- Forskere har udviklet et kunstig intelligens-system beregnet til at spotte og markere falske nyheder.
- Modellen gennemsøger et offentligt datasæt med falske nyheder, advarer brugere og omdirigerer dem til verificerede informationskilder.
-
Der er et stigende antal AI-metoder til at imødegå falske nyheder på nettet.
Kunstig intelligens (AI) er med til at bremse den hurtige spredning af desinformation online, siger eksperter.
Forskere har udviklet et AI-system, der er beregnet til at spotte og markere falske nyheder. Modellen gennemsøger et offentligt datasæt af falske nyheder, advarer brugere og omdirigerer dem til verificerede informationskilder. Det er en del af et voksende antal AI-metoder til at imødegå falske nyheder.
"Mængden af information, der flyder, kaster ud over internettet, især sociale netværk, er enorm og kan ikke håndteres manuelt, især med høj nøjagtighed," Wael AbdAlmageed, en computeringeniørprofessor ved University of Southern California, som har udviklet AI-algoritmer til at detektere visuel misinformation, fort alte Lifewire i et e-mailinterview.
"Det er vigtigt at overvåge og markere misinformation i re altid, da når først misinformation begynder at udbrede sig, er det svært at overbevise folk om, at informationen er falsk, især når misinformation bekræfter vores fordomme," tilføjede han.
Keeping It Real
AI-teknikken udviklet af et team på Australiens Macquarie University kan hjælpe med at reducere spredningen af falske nyheder. Modellen kan inkorporeres i en app eller websoftware og tilbyder links til relevant 'sand' information, der stemmer overens med den enkelte brugers interesser.
"Når du læser eller ser nyheder online, foreslås ofte nyhedshistorier om lignende begivenheder eller emner til dig ved hjælp af en anbefalingsmodel," sagde Shoujin Wang, en dataforsker ved Macquarie University, som arbejdede med forskningen, i nyhedsmeddelelse.
Wang siger, at nøjagtige nyheder og falske nyheder for den samme begivenhed ofte bruger forskellige indholdsstile, hvilket forvirrer computermodeller til at behandle dem som nyheder til forskellige begivenheder.
Macquarie University's model 'opdeler' informationen om hver nyhed i to dele: skiltene, der viser, om nyheden er falsk, og den begivenhedsspecifikke information, der viser emnet eller begivenheden, nyhedshistorien handler om. Modellen leder derefter efter mønstre i, hvordan brugere skifter mellem forskellige nyheder for at forudsige, hvilken nyhedsbegivenhed brugeren kan være interesseret i at læse næste gang.
Forskerholdet trænede modellen på et offentligt datasæt af falske nyheder offentliggjort på GitHub, kaldet FakeNewsNet, som gemmer falske nyheder fra PolitiFact og GossipCop sammen med sådanne data som nyhedsindhold, social kontekst og brugernes læsehistorier.
Væksten af falske nyheder
Falske nyheder er et voksende problem, tyder undersøgelser på. NewsGuard har fundet ud af, at en betydelig del af væksten i sociale medier kom fra upålidelige hjemmesider. I 2020 kom 17 procent af engagementet blandt de 100 bedste nyhedskilder fra rødvurderede (generelt upålidelige) websteder sammenlignet med cirka 8 procent i 2019.
Subramaniam Vincent, direktør for journalistik og medieetik ved Markkula Center for Anvendt Etik ved Santa Clara University, fort alte Lifewire i et e-mailinterview, at AI kan hjælpe med at modvirke desinformation.
Teknologien kan bruges til at "overvåge kontoadfærd for orkestreret deling korreleret med hadefulde ytringer eller allerede afkræftede påstande eller at blive afvist af faktatjekkere eller kendte propagandistiske statsenheder eller begyndende grupper med hurtig medlemsstigning," forklarede Vincent. "AI kan også bruges sammen med design til at markere indhold af bestemte typer for at tilføje friktion, før de deles."
AbdAlmageed sagde, at sociale netværk skal integrere falske nyhedsdetektionsalgoritmer som en del af deres anbefalingsalgoritmer. Målet, sagde han, er at "markere falske nyheder som falske eller ukorrekte, hvis de ikke helt vil forhindre deling af falske nyheder."
Når det er sagt, selvom AI kan være nyttig til at imødegå falske nyheder, har tilgangen sine ulemper, sagde Vincent. Problemet er, at AI-systemer ikke kan forstå betydningen af menneskelig tale og skrift, så de vil altid være bagved kurven.
"Jo mere præcis AI kan blive med nogle former for åbenlys hadefuld tale og desinformation, jo mere vil den menneskelige kultur flytte til nyere kode og underjordisk betydningsoverførsel for at organisere," sagde Vincent.
Wasim Khaled, administrerende direktør for desinformationsovervågningsfirmaet Blackbird. AI, sagde i en e-mail til Lifewire, at online desinformation er en trussel under udvikling. Nye kunstig intelligens-systemer skal være i stand til at forudsige, hvor falske nyheder dukker op næste gang.
"I de fleste tilfælde kan du ikke bygge et kunstig intelligens-produkt og kalde det færdigt," sagde Khaled. "Adfærdsmønstre ændrer sig over tid, og det er vigtigt, at dine AI-modeller følger med disse ændringer."