Hvorfor ny profileringssoftware giver anledning til bekymringer om privatlivets fred

Indholdsfortegnelse:

Hvorfor ny profileringssoftware giver anledning til bekymringer om privatlivets fred
Hvorfor ny profileringssoftware giver anledning til bekymringer om privatlivets fred
Anonim

Key takeaways

  • Software, der bruger kunstig intelligens til at profilere folk, vækker bekymringer om privatlivets fred.
  • Cryfe kombinerer adfærdsanalyseteknikker med kunstig intelligens.
  • Det kinesiske firma Alibaba mødte for nylig kritik efter angiveligt at have sagt, at dets software kunne opdage uighurer og andre etniske minoriteter.
Image
Image

Ny software drevet af kunstig intelligens, der er beregnet til, at arbejdsgivere skal profilere deres ansatte, vækker bekymringer om privatlivets fred.

En ny softwareplatform, kaldet Cryfe, kombinerer adfærdsanalyseteknikker med kunstig intelligens. Udvikleren hævder, at softwaren ved at analysere små spor kan afsløre folks hensigter under interviews. Men nogle iagttagere siger, at Cryfe og andre typer software, der analyserer adfærd, kan invadere privatlivets fred.

"Virksomheder stoler i stigende grad på AI til profilering," sagde AI-ekspert Vaclav Vincale i et e-mailinterview. "Men selv de mennesker, der koder disse algoritmer, meget mindre en kundesupportperson, du når på telefonen, kunne ikke fortælle dig, hvorfor de kommer med en given anbefaling."

More Than Words

Cryfe blev udviklet af en schweizisk virksomhed, hvis ansatte blev trænet af FBI i profileringsteknikker. "Cryfe, i al interpersonel kommunikation, lytter ikke kun til ord, men identificerer andre signaler, der udsendes af mennesket, såsom følelser, mikroudtryk og alle gestus," sagde Caroline Matteucci, grundlæggeren af Cryfe, i et e-mailinterview.

"Under rekruttering, for eksempel, giver dette os mulighed for at gå og lede efter vores samtalepartners virkelige personlighed."

Matteucci sagde, at brugernes privatliv er beskyttet, fordi virksomheden er gennemsigtig omkring, hvordan dens software fungerer. "Brugeren skal, før han kan bruge platformen, acceptere de generelle betingelser," sagde hun.

"Det er specificeret der, at brugeren under ingen omstændigheder må indsende et interview til analyse uden at have modtaget skriftligt samtykke fra samtalepartneren."

Cryfe er ikke den eneste AI-drevne software, der foregiver at analysere menneskelig adfærd. Der er også Humantic, som hævder at analysere forbrugeradfærd. "Humantics banebrydende teknologi forudsiger alles adfærd, uden at de nogensinde behøver at tage en personlighedstest," ifølge virksomhedens hjemmeside.

Image
Image

Virksomheden hævder at bruge AI til at oprette ansøgeres psykologiske profiler baseret på de ord, de bruger i CV'er, følgebreve, LinkedIn-profiler og enhver anden tekst, de indsender.

Adfærdssoftware er tidligere stødt på juridiske udfordringer. I 2019 rapporterede Bloomberg Law, at Equal Employment Opportunity Commission (EEOC) undersøgte sager om påstået ulovlig diskrimination på grund af algoritme-assisteret, HR-relaterede beslutninger.

"Det hele skal løses, fordi fremtiden for rekruttering er AI," sagde advokat Bradford Newman til Bloomberg.

Nogle observatører har problemer med virksomheder, der bruger adfærdssporingssoftware, fordi den ikke er nøjagtig nok. I et interview fort alte Nigel Duffy, global leder af kunstig intelligens hos det professionelle servicefirma EY, til InformationWeek, at han er bekymret over software, der bruger sociale medier quizzer og affektdetektion.

"Jeg synes, der er noget virkelig overbevisende litteratur om potentialet for affektdetektion, men min forståelse er, at den måde, der ofte implementeres på, er ret naiv," sagde han.

"Folk drager slutninger om, at videnskaben ikke rigtig understøtter [såsom] at beslutte, at nogen er en potentielt god medarbejder, fordi de smiler meget, eller beslutter, at nogen kan lide dine produkter, fordi de smiler meget."

Kinesiske virksomheder profilerer angiveligt minoriteter

Adfærdssporing kunne også have mere skumle formål, siger nogle menneskerettighedsgrupper. I Kina vakte online markedspladsgiganten Alibaba for nylig opsigt, efter at den angiveligt hævdede, at dens software kunne opdage uighurer og andre etniske minoriteter.

The New York Times rapporterede, at virksomhedens cloud computing-virksomhed havde software, der kunne scanne billeder og videoer.

Men selv de mennesker, der koder disse algoritmer…kunne ikke fortælle dig, hvorfor de kommer med en given anbefaling.

The Washington Post rapporterede også for nylig, at Huawei, et andet kinesisk teknologifirma, havde testet software, der kunne advare retshåndhævelsen, når dets overvågningskameraer opdagede uighuriske ansigter.

En patentansøgning fra Huawei fra 2018 hævdede efter sigende, at "identifikation af fodgængeregenskaber er meget vigtig" inden for ansigtsgenkendelsesteknologi."Målobjektets egenskaber kan være køn (mand, kvinde), alder (såsom teenagere, midaldrende, gamle) [eller] race (Han, Uyghur)," stod der i applikationen.

En talsmand for Huawei fort alte CNN Business, at funktionen til identifikation af etnicitet "aldrig burde være blevet en del af applikationen."

Den spirende brug af kunstig intelligens til at sortere gennem enorme mængder data vil uden tvivl give anledning til bekymringer om privatlivets fred. Du ved måske aldrig, hvem eller hvad der analyserer dig, næste gang du skal til en jobsamtale.

Anbefalede: