Fețele afro-americane și asiatice sunt identificate în mod fals de până la 100 de ori mai des decât fețele caucaziene.
Studiul realizat de Institutul Național de Standarde și Tehnologie (NIST) a constatat că, atunci când efectuează un anumit tip de căutare în baza de date cunoscută sub denumirea de “unu-la unu” (one-to-one), mulți algoritmi de recunoaștere facială au identificat în mod fals fețe afro-americane și asiatice, cu 10 până la 100 de ori mai mult decât atunci când au identificat fețele caucaziene.
De asemenea, studiul a descoperit că femeile afro-americane sunt des identificate greșit în potrivirea „unu la mulți”(one-to-many), care poate fi utilizat pentru identificarea unei persoane de interes într-o anchetă penală.
Joy Buolamwini, fondatoarea Ligii Algoritmice a Justiției, a numit raportul „o respingere cuprinzătoare” a celor care spun că prejudecata inteligenței artificiale (AI) nu este o problemă. Studiul vine într-o perioadă de nemulțumire în ceea ce privește tehnologia din Statele Unite, criticii avertizând că poate duce la hărțuire sau arestări nedrepte.
Raportul a declarat că „SenseTime” din China, o inițiativă AI evaluată la peste 7,5 miliarde de dolari, a avut „rate mari de potrivire false pentru toate comparațiile”, arată Reuters.
Bennie Thompson, președintele SUA Comitetul Camerei pentru Securitatea Internă, a declarat că aceste rezultate sunt mai rele decât se temea, mai ales într-un moment în care oficialii vamali adaugă recunoașterea facială la punctele de control.
„Administrația trebuie sa reevalueze planurile sale de tehnologie de recunoaștere facială în lumina acestor rezultate șocante”, a spus el, conform Reuters.