Dobras #44 // Vieses, algoritmos e raça: como as tecnologias de reconhecimento facial podem aprofundar as desigualdades

9 de abril de 2021

Por Debora Pio

Este texto é uma adaptação do projeto de pesquisa de doutorado para o Programa de Pós Graduação em Comunicação e Cultura da UFRJ. Algumas informações foram atualizadas. 

As tecnologias de reconhecimento facial têm sido amplamente utilizadas mundo afora, com diferentes finalidades. Desenvolvidas por gigantes da tecnologia, como Microsoft, Huawei, Amazon e Apple, seus usos têm sido primordialmente para fins de vigilância e controle de massas. No Brasil, este tipo de aparato tem se difundido sobretudo no setor privado, em lojas, shoppings e aeroportos. No entanto, uma dimensão preocupante é sua utilização com fins de segurança pública. 

Em território nacional, o reconhecimento facial vem sendo adotado com esta finalidade há pelo menos quatro anos, tanto em grandes capitais, como Salvador, São Paulo, Campinas e Rio de Janeiro, quanto em pequenas cidades. Em todas elas, um aspecto comum: a falta de transparência sobre quais são as bases de dados utilizados e o que é feito com as imagens capturadas. 

Em janeiro de 2019, primeiro mês do mandato do então governador do estado do Rio de Janeiro, Wilson Witzel (PSC), ele anunciou a instalação de câmeras adaptadas com tecnologia de reconhecimento facial na orla de Copacabana e no Maracanã. Apesar da iniciativa ter sido promovida em clima de comemoração, algumas perguntas importantes jamais foram respondidas: 

Como é feito o monitoramento? Qual é a localização precisa das câmeras? Elas funcionam 24h por dia? Os dados capturados pelos aparelhos vão para onde? Como ocorre a identificação das pessoas? Qual base de dados é utilizada para identificar suspeitos? 

O fato dessas informações não estarem a priori disponíveis nos canais oficiais, torna a iniciativa temerária. Segundo dados divulgados pela imprensa, durante o Carnaval deste mesmo ano, as câmeras identificaram 8 mil rostos “suspeitos” e a polícia efetuou 10 prisões a partir dessas identificações. Entre as prisões, uma mulher equivocadamente detida enquanto passeava no calçadão, por seu rosto ter sido identificado como uma acusada de homicídio. Só depois da detenção, descobriu-se que a verdadeira acusada já havia sido presa meses antes. 

Além da baixa eficácia (8 mil identificados para 10 prisões), ainda fica evidente a falta de consistência no cruzamento da base de dados, que mantém em seus arquivos pessoas classificadas como “suspeitas” ainda que elas já estejam cumprindo pena. A falta de mecanismos de controle e avaliação dessas tecnologias é um problema. A falta de transparência sobre como a Polícia Civil trata essas informações pode representar um enorme risco para a nossa já combalida democracia.

O que é reconhecimento facial? 

A tecnologia de reconhecimento facial é viabilizada pela inteligência artificial. Ela funciona através de um algoritmo que é treinado para registrar vários pontos do rosto humano, como o tamanho do queixo, do nariz e distância entre os olhos. Essas características formam uma assinatura facial e são armazenadas em um banco de dados. Estes dados extraídos  podem ser comparados com outros bancos de dados existentes, formando o reconhecimento facial. 

A controvérsia reside no fato dos algoritmos e do machine learning não serem construídos para identificar com eficiência características diferentes tons de pele, tipos de cabelo, deficiências etc. Eles funcionam com maior precisão na identificação de rostos de homens brancos, o que confere um viés que pode gerar prejuízos incalculáveis para grupos historicamente marginalizados. 

Joy Buolamwini, pesquisadora do MIT, é fundadora da Algorithimic Justice League, iniciativa criada depois que ela concluiu, ao realizar um projeto de pesquisa, que os softwares presentes em câmeras de identificação facial só eram capazes de reconhecer seu rosto quando ela colocava uma máscara branca sobre ele. Sobre isso, ela exemplifica: 

“o aplicativo de fotos do Google que rotula negros em imagens como “gorilas” e software de análise facial que funciona bem com homens brancos, mas não funciona para todos os outros, são exemplos sórdidos. Por mais perturbadores que sejam, eles não capturam completamente os riscos dessa tecnologia que está sendo cada vez mais usada na aplicação da lei, controle de fronteiras, vigilância escolar e contratação de funcionários (2018). Tradução livre. 

Este fato está melhor apresentado no recém lançado documentário “Coded Bias“, que tem Buolamwini como protagonista. Esta denúncia escancarou ainda mais o problema dos vieses algorítmicos, cujas implicações se dão sobretudo em grupos racializados. Algumas práticas discriminatórias podem se sofisticar a partir dessas máquinas, aprofundando ainda mais as desigualdades.

As tecnologias e softwares digitais de identificação facial ainda são “novidades” no Brasil, mas a prática de identificação de “suspeitos” através de fotos de bancos de dados é amplamente utilizada pelas polícias do país. Um levantamento feito em 2020 pelo Condege (Colégio Nacional dos Defensores Públicos Gerais) apontou que 83% dos presos injustamente através do reconhecimento por foto são negros.

Algoritmos também passam por decisões políticas 

O uso de drones atiradores, reconhecimento facial, máquinas de raio-x, algoritmos que avaliam as chances de reincidência de condenados da justiça são tecnologias que vêm sendo incensadas como inovação, mas costumam apontar como suspeitos os mesmos alvos de sempre: pessoas negras, moradores de comunidades pobres e grupos historicamente marginalizados.

Em Dark Matters (2015), Simone Browne aponta que a vigilância sempre foi um instrumento utilizado para controle da população, desde a época escravidão. O reconhecimento facial não seria, portanto, algo novo, apenas uma sofisticação do modelo político de tratar essas pessoas.

Mais do que ver a vigilância como algo inaugurado pelas novas tecnologias…vê-la como permanente é insistir em que levemos em consideração o modo como o racismo e a anti-negritude reforçam e sustentam as vigilâncias cruzadas de nossa ordem atual (2015).

Apesar disso, o estabelecimento destas tecnologias de vigilância e monitoramento não têm se espalhado de maneira acrítica. Movimentos no mundo inteiro têm contestado os usos políticos dessas tecnologias e realizado ações para combatê-las ou ao menos exigir mais transparência na maneira como elas são utilizadas. Durante os protestos de Hong Kong, onde a população foi às ruas para lutar contra um projeto de lei que permitiria a extradição de suspeitos de crimes para a China continental, os manifestantes utilizaram raios laser para inutilizar as câmeras. Alguns ativistas chegaram a pintar as câmeras dispostas nas ruas com tinta.

Manifestantes de Hong Kong utilizam raio laser para inviabilizar a captura de imagens para reconhecimento facial. Crédito: AFP

 

Em 2020, o assassinato de George Floyd por um policial branco em Minneapolis (EUA) também trouxe à tona a discussão sobre a violência policial contra pessoas negras e a contribuição das tecnologias digitais para isso. A morte de Floyd impulsionou protestos no mundo inteiro, que clamavam pela reformulação da polícia (#DefundThePolice) e mais justiça social para as minorias. Depois disso, nos Estados Unidos, a Amazon e a Microsoft se comprometeram a interromper o desenvolvimento de suas tecnologias de reconhecimento facial por tempo indeterminado, já que esta tecnologia foi identificado como uma ferramenta que auxilia no encarceramento em massa de pessoas negras.

No Rio de Janeiro, as câmeras de reconhecimento facial foram desligadas por falta de recursos para manutenção. As informações sobre o que elas capturaram enquanto estiveram ativas seguem sendo uma caixa preta. O Radar Legislativo, da organização de direitos digitais Coding Rights, já identificou projetos de lei que abordam diretamente o tema do  reconhecimento facial. Entre eles, o PL 604/21, que “veda a prisão preventiva baseada exclusivamente em reconhecimento facial”.

Criar bancos de dados mais diversos para treinar máquinas (machine learning), criar códigos inclusivos, auditar as tecnologias e evitar as práticas discriminatórias não deveria ser uma demanda que vem apenas de ativistas. Somente ampliando a discussão e abrindo cada vez mais essas caixas pretas será possível criar tecnologias mais justas. Ainda há tempo.