Key takeaways
- Et softwarefirma indsamler angiveligt oplysninger om sociale medier for at oprette profiler, der kan bruges til at identificere personer, der udgør sikkerhedsrisici.
- Voyager Labs har indgået en betydelig aftale med et japansk regeringsagentur.
- Men eksperter advarer om, at AI-forudsigelsessoftware kan narre.
Dine onlineoplysninger kan bruges til at forudsige, om du kan begå en forbrydelse.
Voyager Labs indsamler efter sigende oplysninger om sociale medier for at skabe profiler, der kan bruges til at identificere personer, der udgør sikkerhedsrisici. Det er en del af en voksende indsats at bruge kunstig intelligens (AI) til at efterforske potentielle kriminelle. Men nogle eksperter siger, at bevægelsen er fyldt med potentielle problemer.
"Det er meget svært at forudsige menneskelig adfærd," fort alte Matthew Carr, en sikkerhedsforsker ved Atumcell Group, til Lifewire i et e-mailinterview. "Vi er ikke engang i stand til at forudsige vores egen adfærd, endsige andres. Jeg tror, det er muligt, at AI i fremtiden kan bruges til dette formål, men vi er langt fra at kunne gøre det i øjeblikket."
Oprettelse af profiler
Som The Guardian for nylig rapporterede, undersøgte Los Angeles politiafdeling at bruge Voyager Labs software til forudsigelse af kriminalitet. Virksomheden meddelte også, at den havde indgået en betydelig aftale med et japansk regeringsagentur.
Den japanske aftale giver det offentlige organ en AI-baseret undersøgelsesplatform, der analyserer enorme mængder information fra enhver kilde, inklusive åbne og dybe data.
"Jeg er glad for, at vi samarbejder i kampen mod terror og kriminalitet," sagde Divya Khangarot, administrerende direktør for APAC hos Voyager Labs, i pressemeddelelsen. "Ved at bruge Voyager Labs banebrydende intelligensløsninger får vores kunder unikke evner til proaktivt at identificere og forstyrre potentielle trusler. Vi bringer yderligere lag af dyb efterforskningsindsigt ved hjælp af en kombination af AI, Machine Learning og OSINT for at afdække skjulte spor, krænket information, og dårlige skuespillere."
Ikke så smart?
Men i et e-mail-interview sår Matt Heisie, medstifter af Ferret.ai, som også bruger kunstig intelligens til at forudsige lovovertrædere, tvivl om nogle af påstandene fra Voyager Labs.
"Er der lige så tydelig en sammenhæng mellem f.eks. en arrestation og fremtidig kriminel adfærd, som der er en sort plet på en test og udviklingen af en tumor?" han sagde. "Tænk på alle de potentielle forvirringer, der gik ind i den arrestation - hvilket kvarter personen boede i, mængden og kvaliteten, ja endda skævheder, af politiet i det område. Personens alder, deres køn, deres fysiske udseende, alle disse har krydsende indvirkninger på sandsynligheden for, at denne person har en arrestation, fuldstændig adskilt fra deres faktiske tilbøjelighed til at begå den forbrydelse, vi forsøger at forudsige."
Tilt alte med bedre advokater er mere tilbøjelige til at være i stand til at undertrykke optegnelser fra at blive offentligt tilgængelige, sagde Heisie. Nogle jurisdiktioner begrænser frigivelsen af mugshots eller arrestationsjournaler for at beskytte den anklagede.
"Computeren lærer baseret på de data, du giver den, og inkorporerer alle de skævheder, der gik ind i den dataindsamling…"
"Alt dette tilføjer yderligere bias til algoritmerne," tilføjede han. "Computeren vil lære baseret på de data, du giver den og inkorporerer alle de skævheder, der gik ind i den dataindsamling, i indlæringen og fortolkningen."
Der har været flere forsøg på at skabe kriminalitet, der forudsiger AI'er, og med ofte skandaløse resultater, sagde Heisie.
COMPAS, en algoritme, som retshåndhævere bruger til at forudsige gentagelser, bruges ofte til at afgøre strafudmåling og kaution. Det har stået over for skandale tilbage til 2016 på grund af racemæssige skævheder, idet de forudsagde, at sorte tilt alte udgjorde en højere risiko for recidiv, end de faktisk gjorde, og omvendt for hvide tilt alte.
Over 1.000 teknologer og forskere, inklusive akademikere og AI-eksperter fra Harvard, MIT, Google og Microsoft, udt alte sig i 2020 mod et papir, der hævdede, at forskere havde udviklet en algoritme, der kunne forudsige kriminalitet udelukkende baseret på en persons ansigt og siger, at offentliggørelse af sådanne undersøgelser forstærker allerede eksisterende racemæssige skævheder i det strafferetlige system, bemærkede Heisie.
Kina er det største og hurtigst voksende marked for denne type teknologi, primært på grund af udbredt adgang til private data, med mere end 200 millioner overvågningskameraer og avanceret AI-forskning fokuseret på dette problem i mange år, sagde Heisie. Systemer såsom CloudWalks Police Cloud bruges nu til at forudsige og spore kriminelle og lokalisere retshåndhævelse.
"Men der rapporteres der også om væsentlige skævheder," sagde Heisie.
Heisie tilføjede, at hans virksomhed omhyggeligt kuraterer de data, der går ind og ikke bruger mugshots eller arrestationsregistre, "i stedet fokuserer på mere objektive kriterier."
"Vores AI lærte af de kurerede data, men endnu vigtigere, det lærer også fra folk, som selv analyserer, kuraterer og evaluerer optegnelser og fortæller os om deres interaktioner med andre," tilføjede han. "Vi opretholder også fuld gennemsigtighed og fri og offentlig adgang til vores applikation (så hurtigt som vi kan lade dem gå i beta), og vi byder velkommen til indsigt i vores processer og procedurer."