Sistemele de recunoaştere facială nu sunt încă fiabile şi dau erori din cele mai nedorite

Publicat de Corina Muntean, 30 decembrie 2019, 08:36
Recunoaşterea facială identifică eronat persoanele asiatice şi de culoare de 100 de ori mai des decât persoanele caucaziene, potrivit unui studiu care a analizat zeci de algoritmi, prezentat săptămâna trecută de Guvernul american. Cercetătorii de la National Institute of Standards and Technology (NIST), un centru afiliat guvernului, au reperat şi doi algoritmi care atribuiau sexul eronat femeilor de culoare în 35% dintre cazuri.
Recunoaşterea facială este deja larg utilizată de către autorităţi, forţe de ordine, aeroporturi, bănci, magazine şi şcoli. Tehnologia este folosită şi pentru deblocarea anumitor smartphone-uri performante.
Dar subliniind limitele ei şi aducând în discuţie dreptul la viaţa privată şi protecţia datelor, numeroşi cercetători şi apărători ai drepturilor omului încearcă să frâneze această dezvoltare. Ei estimează că algoritmii comit prea multe erori, că persoane nevinovate ar putea să ajungă la închisoare sau baze de date riscă să fie piratate şi utilizate de infractori.
Algoritmii dezvoltaţi în Statele Unite prezentau cele mai mari rate de eroare pentru asiatici, afro-americani şi amerindieni, potrivit noului studiu, în timp ce alţi algoritmi, concepuţi în ţări asiatice, reuşesc să identifice la fel de bine chipurile asiatice şi cele caucaziene.
Însă pentru ONG-ul American Civil Liberties Union (ACLU), acest studiu dovedeşte înainte de toate că tehnologia nu este încă bine pusă la punct şi că nu ar trebui să fie implementată.
Autor: Virgil Natea
Editor: Corina Muntean
Ascultati rubrica Info Gadget, realizată de Virgil Natea, de luni până miercuri, la ora 9:20, în emisiunea ”Bună dimineața, Transilvania!”, pe frecvențele de 102,9 FM sau 98,9 FM.
Sursa: www.agerpres.ro