Ucrânia adere a tecnologia de reconhecimento facial enquanto banimento da ferramenta avança pelo mundo
21 de março de 2022
Este artigo foi escrito com informações de reportagem publicada pela Reuters, em 14 de março, assinada por Paresh Dave e Jeffrey Dastin.
Por Manuella Caputo*
Banida em diversas cidades por suas propriedades falhas e racistas, a tecnologia de reconhecimento facial passou, no dia 12 de março, a ser utilizada como ferramenta pela Ucrânia no combate à invasão russa. A informação foi transmitida à agência de notícias Reuters pelo chefe executivo da empresa de tecnologia ClearView, Hoan Ton-That, mas ainda não foi confirmada pelo Ministério da Defesa ucraniano. Anteriormente, o Ministério da Transformação Digital da Ucrânia chegou a declarar que estava considerando propostas de companhias de inteligência artificial como a ClearView.
Enquanto enfrenta nos EUA uma série de processos sob a acusação de violar direitos de privacidade ao obter imagens da web, a empresa estadunidense ofereceu o serviço ao governo ucraniano de forma gratuita. O chefe executivo da ClearView afirmou que a ferramenta de busca por rostos poderia auxiliar no encontro de refugiados e suas famílias, na identificação de agentes russos e na revelação de publicações falsas relacionadas à guerra em redes sociais.
A companhia diz ter mais de dois bilhões de imagens do serviço russo de rede social VKontakte à disposição, de uma base de dados com mais de dez bilhões de fotos ao todo. Nos Estados Unidos, onde a companhia mantém sua base primária de consumidores, a Meta chegou a demandar que a ClearView parasse de coletar dados do Facebook.
Em entrevista à Reuters, o diretor executivo do Surveillance Technology Oversight Project em Nova York, Albert Fox Cahn, explicou que o reconhecimento facial pode errar na identificação de pessoas e levar a morte de civis, em um movimento similar às prisões injustas que têm ocorrido nos EUA devido a falhas na tecnologia deste tipo. “Depois que você introduz esses sistemas e os bancos de dados associados a uma zona de guerra, você não tem controle sobre como eles serão usados e mal utilizados”, alertou.
Banimento do reconhecimento facial ganha força ao redor do mundo
No contexto do uso policial, a tecnologia de reconhecimento facial chega apenas para modernizar o erro. Segundo levantamento da Defensoria Pública do Rio de Janeiro e do Colégio Nacional de Defensores Públicos Gerais, de 2012 a 2020, foram efetuadas ao menos 90 prisões injustas com base no reconhecimento presencial ou por foto. O relatório mostrou ainda que 81% dos acusados erroneamente eram negros.
O viés racista é evidente também nas tecnologias de reconhecimento facial compostas por algoritmos. Um trabalho realizado em 2018 pelas pesquisadoras Joy Buolamwini, Timnit Gebru e Deborah Raji concluiu que as tecnologias do gênero criadas pela Amazon, Microsoft e IBM não detectavam rostos de pessoas negras nem classificavam rostos de mulheres com precisão. A pesquisa chegou a virar o tema principal do documentário Coded Bias, que convocou uma série de pesquisadoras, referência nos estudos sobre algoritmos e inteligência artificial, para tratar dos vieses – especialmente racistas e sexistas – na tecnologia.
Hoje, até mesmo essas empresas, juntamente com o Facebook, têm freado ou abandonado o uso da tecnologia de reconhecimento facial. Na esfera pública, o serviço já foi banido em dezenas de cidades estadunidenses, como São Francisco, Portland e Nova Orleans. Na Europa, a Autoridade Europeia de Proteção de Dados emitiu um parecer pedindo o banimento da tecnologia em toda a região.
No Brasil, duas iniciativas pioneiras pedem o banimento do uso pelo poder público de tecnologias de reconhecimento facial em espaços públicos: o Projeto de Lei Nº 824/2021, que tramita na Câmara Municipal do Rio de Janeiro, e o Projeto de Lei Nº 5240/2021, que tramita na Assembleia Legislativa do Rio.
Para saber mais
- Vieses, algoritmos e raça: como as tecnologias de reconhecimento facial podem aprofundar as desigualdades. Por Debora Pio, pesquisadora do MediaLab.UFRJ que participou da redação dos projetos de lei que tramitam no Rio de Janeiro acerca do tema.
- Vigilância automatizada: uso de reconhecimento facial pela Administração Pública no Brasil. Relatório elaborado pela equipe de vigilância do Laboratório de Políticas Públicas e Internet (LAPIN).
- Reconhecimento facial no setor público e identidades trans. Pesquisa realizada pela Coding Rights.
* Manuella Caputo é graduanda em Comunicação Social com habilitação em Jornalismo e pesquisadora de iniciação científica do MediaLab.UFRJ.
Créditos da imagem de capa: REUTERS/Valentyn Ogirenko.