Governo dos EUA mostra que reconhecimento facial muda conforme sexo

Segundo pesquisa federal dos norte-americanos, precisão dos sistemas de reconhecimento facial é afetada de acordo com as características dos indivíduos, como sexo, cor e idade


Pesquisadores já haviam estudado anteriormente o potencial do viés presente nos algoritmos de reconhecimento facial, mas um novo estudo do governo dos EUA ressalta a variação da precisão da tecnologia mediante sexo, idade e raça. A pesquisa foi feita tanto com a examinação de pessoa por pessoa, quanto de indivíduos presentes em grupos, e o resultado mostrou ondas notáveis que comprovam a variação, representando uma prova definitiva da falha sistêmica atual.

Em análises individuais, o relatório revelou que houve aumento de erros em reconhecimento de rostos de negros, asiáticos e americanos nativos. Ao comparar com a avaliação de faces de caucasianos, as falhas variam de 10 a 100 vezes com mais frequência. Além disso, mulheres negras tiveram as maiores probabilidades de serem vítimas das falhas, mas o sexo feminino, em geral, tem de duas a cinco vezes mais chances de cair no erro do sistema.


No entanto, os resultados também são diferentes quando analisados os lugares onde os sistemas foram desenvolvidos. Por exemplo, os algoritmos desenvolvidos na Ásia apresentam pouca diferença entre caucasianos e asiáticos. O Instituto Nacional de Padrões e Tecnologia (NIST) sugeriu que isso ocorre por conta de um conjunto de variedades de imagens maiores no treinamento da tecnologia.


O instituto responsável pelo estudo enfatizou que os pesquisadores não exploram as causas dessas diferenças, mas sim a profundidade delas. Eles acreditam que os resultados podem conter informações essenciais para desenvolvedores, governos e clientes que desejam aprofundar seus sistemas e entender o uso dos algoritmos de reconhecimento facial.


Para grupos de direitos civis, as descobertas correspondem a evidências de que o governo e a polícia deveriam interromper o uso da tecnologia atual. Segundo eles, as falhas cruciais podem ter consequências “terríveis”, como fazer um indivíduo perder um voo ou ser colocado em uma lista de observação terrorista. O analista sênior de política da ACLU, Jay Stanley, pediu às agências governamentais que a paralisação seja imediata.


Em algumas áreas, o desejo dos ativistas já foi realizado. A Alfândega e a Proteção de Fronteiras dos Estados Unidos não utilizam mais o sistema para com cidadãos do país, embora ainda recorra à tecnologia quando se trata de estrangeiros. Algumas cidades também aderiram à mudança e não contam mais com os algoritmos, mas a medida não é estendida para poderes estaduais e federais.


Via: Engadget


Código Wish 50% De Desconto
xdgkpgg