// “Quem paga a conta?”: Debora Pio comenta reportagem do Intercept sobre reconhecimento facial

17 de maio de 2023

O Intercept Brasil, em parceria com O Panóptico e a Coding Rights, vem investigando quem lucra e quem é punido com os sistemas de reconhecimento facial para fins de segurança no Brasil. A série “Quem paga a conta?” teve sua segunda reportagem lançada hoje. Para o blog do MediaLab.UFRJ, nossa pesquisadora Debora Pio, que investiga as intersecções entre o racismo e as tecnologias de segurança pública, comenta a matéria.

O jornal revelou que a empresa Clearview AI possui um banco de imagens com 3 bilhões de fotos de brasileiros que servem para alimentar seu controverso sistema de reconhecimento facial. Segundo apuração do Intercept, executivos da empresa se reuniram com o Ministério da Justiça e com polícias estaduais para oferecer seus serviços no ano passado. Este enorme banco de dados da Clearview foi conquistado pela prática de raspagem, muito criticada por especialistas em privacidade digital, que consiste em coletar imagens de sites públicos ou perfis abertos em redes sociais. Sob avaliação de que não havia consentimento para coleta destas imagens, a ferramenta já foi banida por órgãos reguladores de países da Europa, Austrália e Canadá.

“É bastante arriscado que uma empresa privada faça este tipo de ‘prestação de serviço’, sobretudo quando o assunto é segurança pública”, afirma a pesquisadora do MediaLab.UFRJ.

A matéria menciona que os sistemas utilizados hoje em dia pelas polícias para identificar suspeitos já são controversos. “Agora imagina deixar esta responsabilidade nas mãos de uma empresa de inteligência artificial, que coleta dados de redes sociais sem nenhum critério, além de não estar preocupada com a garantia dos direitos humanos e nem com a privacidade das pessoas. É super problemático”, acrescenta Pio. 

“No momento, estamos vivendo um verdadeiro “boom” de empresas que desenvolvem inteligência artificial para as mais diversas finalidades, então é provável que mais e mais ferramentas deste tipo surjam e queiram vender seus produtos para os governos, uma vez que são eles que detém as maiores bases de dados de cidadãos, como os sistemas de saúde, de justiça, de segurança, etc.”. O perigo destas abordagens são as promessas “mágicas”, que geralmente incluem resolver um problema social histórico com apenas alguns equipamentos e poucos cliques. “Por isso é muito importante que haja um letramento de servidores e profissionais que atuam no poder público, para que essas pessoas saibam avaliar os riscos e impactos que estas tecnologias podem trazer”, avalia. 

A Lei Geral da Proteção de Dados (LGPD) e a Lei da Transparência evitam que estas tecnologias sejam implementadas à revelia, mas não garantem que, diante da urgência em propor soluções para problemas graves, como os de segurança pública nas  grandes cidades, elas não passem desapercebidas, como é o caso das câmeras de reconhecimento facial.