Amazonovo prepoznavanje obrazov napačno označuje 26 kalifornijskih zakonodajalcev kot kriminalce



Medtem ko vladne agencije še naprej stremijo k uvedbi sistemov za prepoznavanje obraza, vam ni treba daleč pogledati, zakaj so to slabe novice. Kot ilustracijo je ACLU izvedel test Amazonove programske opreme Rekoglition – tehnologije za prepoznavanje obraza, ki jo trenutno uporabljajo ameriški organi pregona – v kateri je 26 kalifornijskih zakonodajalcev napačno opredelil kot ujeme v kazenski bazi podatkov.

Medtem ko se smehljate med "politiki, bomo ustavili so kriminalci ”se šalijo skozi glavo.

To je že drugič, ko je ACLU izvedel tovrstni test. V prvem preizkusu, opravljenem lani, je bilo Rekogservation divje nenatančno, saj je pri poskusu ujemanja s člani kongresa prišlo do napačnih in rasno pristranskih rezultatov.

Natančno danes je zadnji test ACLU objavil 120 slik kalifornijskih zakonodajalcev v primerjavi s bazo podatkov s 25.000 posnetki. Amazonova programska oprema Rekogservation je približno 20 odstotkov časa ustvarila lažne pozitivne rezultate.

Phil Ting, poslanec v skupščini v San Franciscu in ena izmed napačnih tekem, je rezultate uporabil za podpiranje zakona, ki bi prepovedal uporabo tehnologije v policijskih kamerah. "To smo želeli prikazati kot demonstracijo, kako ta programska oprema absolutno ni pripravljena za primeren čas," je na tiskovni konferenci dejal Ting. "Čeprav se lahko nasmejemo kot zakonodajalci, posameznik, ki poskuša dobiti zaposlitev, ni smešen, če si posameznik poskuša dobiti dom."

Tiskovni predstavnik Amazona je povedal TNW:

ACLU znova zavestno zlorablja in napačno predstavlja Amazon Rekogservation za ustvarjanje naslovov. Kot smo že povedali v preteklosti, lahko s pomočjo priporočene 99-odstotne meje zaupanja in s pomočjo človekove odločitve tehnologijo prepoznavanja obraza uporabimo za dolg seznam koristnih namenov, od pomoči pri identifikaciji kriminalistov, da pomagajo najti pogrešane otroke in preprečujejo trgovino z ljudmi. Še naprej se zavzemamo za zvezno zakonodajo tehnologije prepoznavanja obraza, da bi zagotovili odgovorno uporabo, svoje posebne predloge za to pa smo delili zasebno s oblikovalci politik in na svojem blogu.

Odvetnik ACLU Matt Cagle, ki je sodeloval s podjetjem UC Berkeley, da je neodvisno preveril rezultate, ki so nasprotovali kritikam. V komentar k Gizmodo, Je Cagle dejal, da ACLU ni uporabil 99-odstotnega praga zaupanja, ker se je držal privzetih nastavitev v programski opremi Amazon – kar je 80-odstotna ocena zaupanja.

Amazon je trditev ovrgel in pokazal na objavo v blogu, v kateri ugotavlja, da Rekognance ne bi smeli uporabljati z manj kot 99-odstotno stopnjo zaupanja. To seveda vodi le do več vprašanj. Konkretno, zakaj ni privzeta nastavitev programske opreme za 99 odstotkov?