Reconhecimento facial no Carnaval: riscos tecnológicos nada divertidos*

 

 

Os erros e discriminações constatados em estudos nos EUA e Reino Unido nas ferramentas testadas pelos governos do Rio de Janeiro e Bahia

Este ano, no Rio de Janeiro, o Carnaval exigiu um outro tipo de criatividade dos foliões que não quiseram ser rastreados pelas câmeras do Centro Integrado de Comando e Controle da Polícia Civil. Ao escolher acessórios, arrumar o penteado e jogar purpurina no rosto, a preocupação deixou de ser compor um look chamativo e priorizou justamente o inverso: tornar-se imperceptível. Isso porque teve início, no bairro de Copacabana, a operação do governo do estado fluminense que instalou 28 câmeras com capacidade de identificação automatizada de placas de veículos e de pessoas por meio de sistemas de reconhecimento facial.   A utilização dos dispositivos visou, segundo o governo, reconhecer carros roubados e pessoas que estivessem com mandados de prisão expedidos. As imagens captadas foram enviadas para o Centro e associadas aos bancos de dados da Polícia Civil e do Detran. Durante os cinco dias do feriado, quatro pessoas foram reconhecidas pelas máquinas e presas no Rio de Janeiro. Um adolescente que estaria cumprindo medida socioeducativa também foi apreendido e um carro roubado foi recuperado. Em Salvador, onde o sistema – criado pela chinesa Huawei – também foi experimentado, um foragido foi preso. Celebradas pelo governador Wilson Witzel e por autoridades policiais do Estado, as tecnologias de reconhecimento facial acumulam controvérsias, erros e fortes contestações nos países que as utilizam como ferramenta de segurança pública. O primeiro aspecto diz respeito ao caráter intrusivo e o perigo que representam a direitos civis, sobretudo em governos autoritários e que podem empregar o recurso para vigilância estatal em massa. No caso fluminense, a preocupação se torna mais patente pelo fato de que a implementação das câmeras tenha sido realizada em parceria com a operadora Oi, responsável pelo software utilizado no sistema. A empresa não tem “bons antecedentes” no que diz respeito à privacidade de seus usuários. Em 2014, foi multada em R$ 3,5 milhões pela Secretaria Nacional do Consumidor, do Ministério da Justiça, por vender dados pessoais de clientes, sem a autorização e consentimento dos mesmos, para agências de publicidade e anunciantes.

Discriminação tecnológica

Além dos possíveis usos antiéticos de informações pessoais e, em último caso, a delegação da verificação de identidade de uma pessoa para fins legais e securitários a mecanismos pertencentes a uma companhia privada, um segundo aspecto temerário refere-se a consequências discriminatórias advindas de comprovadas falhas das próprias tecnologias de reconhecimento facial. Em artigo publicado no ano passado, as pesquisadoras Joy Buolamwini, do MIT Media Lab, e Timnit Gebru, do Microsoft Research, ambos dos Estados Unidos, apontaram que sistemas automatizados de análise facial apresentam tendências discriminatórias. A pesquisa testou três sistemas comerciais de identificação de gênero – IBM Watson, Microsoft Cognitive Services e o Face++ – em um banco de dados próprio e constatou uma significativa disparidade em relação a gênero e raça nestes sistemas. Enquanto em homens brancos a taxa de erro máxima ficou em 0.8%, para mulheres negras o valor chegou a 34,7%. A construção de um banco de dados próprio pelas autoras do artigo, por sua vez, revela outro agravante dos sistemas de reconhecimento facial automatizados. Buolamwini e Gebru criaram um banco de imagens próprio para que tivessem um repertório base mais representativo que os dois bancos mais utilizados por esses sistemas: o IJB-A, criado pelo Intelligence Advanced Research Projects Activity, do governo americano, e o Adience, construído a partir da coleta de fotos no Flickr. Enquanto o IJB-A, formado por 500 imagens de rostos de figuras públicas apresentava 79.6% de indivíduos de pele clara, o índice chega a 86.2% das 2.284 imagens do Adience. Ou seja, a base de dados é essencialmente branca, levando a erros de reconhecimento relevantes quando as máquinas são colocadas para “reconhecer” a população negra. Exemplos concretos de erros não faltam. Propagandeado pelo governador Witzel como modelo de referência, o sistema de reconhecimento facial usado pelas polícias britânicas foi duramente questionado pelo Big Brother Watch – uma organização da sociedade civil no Reino Unido que atua em defesa da privacidade – durante um teste realizado, vejam só, no Carnaval de Notting Hill em 2017. A organização apontou em relatório, com base em informações da Polícia Metropolitana de Londres, afirmando que durante os festejos no bairro da cidade naquele ano houve “cerca de 35 identificações errôneas” pelo sistema usado, levando a abordagem equivocadas de cidadãos. O número total de acertos ficou em torno de 3%, enquanto as combinações erradas atingiram 97%.

Regulação

O mais recente relatório do instituto de pesquisa AI Now, da New York University, dedicado a investigar os impactos sociais da utilização da inteligência artificial, defende que as ferramentas de identificação automatizadas precisam de uma regulamentação rigorosa para que o interesse público seja protegido. O documento indica que meros avisos e alertas aos cidadãos sobre a utilização das tecnologias não são suficientes e há a necessidade de leis em âmbitos nacionais que exijam forte supervisão, limitações claras e objetivas de consentimento e instrumentos de transparência e fiscalização pública desses sistemas, considerando os perigos envolvidos em sua utilização. Ainda apontam que as comunidades devem ter o direito de rejeitar a aplicação dessas tecnologias em contextos públicos e privados. Ao mesmo tempo, legislações demasiadamente rígidas e ajustes nos métodos de treinamento destes mecanismos podem se apresentar como uma armadilha. A encruzilhada ético-política é a seguinte: quanto mais “precisas” são as tecnologias de reconhecimento facial, maior é a legitimidade para futuras implementações em contextos públicos e privados. A maior acuidade tende, ainda, a diminuir as controvérsias e questionamentos sobre os perigos que representa o reconhecimento facial automatizado para restrições de liberdade e direitos civis, bem como para a ampliação de discriminações estruturais. Ou seja, o aperfeiçoamento “desejável” dessas ferramentas pode levar a uma massificação ainda mais perigosa de seu uso. Segundo Simone Browne, professora assistente da Universidade do Texas e pesquisadora de questões relativas à racialidade e vigilância, os discursos entusiastas da aplicação destes dispositivos em políticas de segurança pública tratam o policiamento e o sistema penal como fundamentalmente neutros. O que, sabemos, não é o caso. Em entrevista ao Gizmodo, Browne alerta que o reconhecimento facial categoriza os humanos, de modo que “os dados que são extraídos ou produzidos sobre indivíduos e grupos são transformados em perfis, circulados e comercializados entre bancos de dados. Esses dados geralmente são classificados por gênero, nacionalidade, região, raça, condição socioeconômica e, para alguns, essas categorias são particularmente prejudiciais”. Considerar todas essas questões passa a ser urgente, portanto, no atual momento brasileiro. Num contexto em que a segurança pública é preocupação cada vez maior da população, compreender que determinadas tecnologias, já em implementação, podem trazer mais riscos e danos do que ganhos para o conjunto da sociedade é fundamental para que não embarquemos em políticas públicas que passam muito longe da diversão de pular o carnaval mascarado. /// * Texto publicado originalmente no Blog do Intervozes na CartaCapital: https://www.cartacapital.com.br/blogs/intervozes/reconhecimento-facial-no-carnaval-riscos-tecnologicos-nada-divertidos/ Imagem deste post: Fernando Frazão/Agência Brasil.