// Racismo algorítmico e o trabalho de pesquisadores da área para obterem reconhecimento

24 de maio de 2021

Por Manuella Caputo

Em setembro de 2020, um usuário do Twitter decidiu conduzir um experimento: em uma imagem com uma pessoa negra e outra branca, de quem o algoritmo de corte de imagem do Twitter mostrará o rosto? Engenheiro de criptografia e infraestrutura, Tony testou algumas possibilidades, alterando a posição das pessoas na imagem e até editando a cor de suas roupas, mas o resultado seguiu o mesmo: o Twitter escolhia destacar o rosto da pessoa branca.

Não demorou para que o assunto desse o que falar na rede social e logo passou a ser discutido mundialmente, inclusive por pesquisadores(as) brasileiros(as) da área de tecnologia. Esse foi mais um caso de racismo algorítmico, ou seja, de um algoritmo que toda vez que é executado reproduz um viés racista – prejudicando assim pessoas negras e reforçando o preconceito já existente na sociedade. 

Tendo em vista a repercussão do tema, o Twitter anunciou, em 19 de maio de 2021, que realizou um novo estudo sobre seu algoritmo de corte de imagem. A pesquisa da empresa concluiu que, de fato, o tal algoritmo é 4% favorável a pessoas brancas. Quando se trata apenas de mulheres, esta margem é maior ainda: há um favorecimento de 7% a mulheres brancas em relação às mulheres negras.

E quais medidas foram tomadas a partir de tais descobertas? Em publicação de seu blog, a rede social declarou: “Uma de nossas conclusões é que nem tudo no Twitter é um bom candidato para um algoritmo e, neste caso, como recortar uma imagem é uma decisão melhor tomada por pessoas” (tradução livre). Como resultado, a empresa também disponibilizou a exibição de imagens em seu formato original e a visualização real da imagem no campo de composição de tweets, para que os autores saibam como seus tweets ficarão antes de publicá-los.

No entanto, como apontou a pesquisadora brasileira Nina da Hora, a divulgação do estudo ignora que muitas das críticas feitas lá em 2020 não foram feitas apenas por usuários do Twitter, mas também por pesquisadores(as) nacionais e internacionais reconhecidos(as) por seus trabalhos sobre racismo algorítmico. Em seu perfil na rede social Nina sugeriu que a empresa comece a conversar com pessoas negras sobre como melhorar a plataforma no Brasil e “a se posicionar como pessoas que estão precisando da nossa ajuda e reconhecer isso publicamente e não fazer méritos próprios”.

https://twitter.com/ninadhora/status/1395357606382817287

Debora Pio, pesquisadora do Medialab.UFRJ, alerta que o problema do racismo algorítmico não afeta as pessoas somente na internet, mas também pode trazer implicações no cotidiano offline, com as tecnologias de reconhecimento facial, por exemplo:

“As tecnologias de reconhecimento facial, em sua maioria, apresentam problemas na hora de identificar com acurácia rostos de pessoas não brancas. Quando essas ferramentas são utilizadas como um aparato de segurança pública representa um risco para essas populações, que podem ser identificadas equivocadamente. Uma vez que o encarceramento e a falta de acesso à justiça atinge sobretudo as pessoas negras, essa tecnologia pode contribuir para aprofundar ainda mais as desigualdades históricas”.

Pesquisadoras pioneiras no campo de racismo algorítmico lutam contra o apagamento de seu trabalho

Na mesma semana em que o Twitter deixou de reconhecer publicamente as críticas de pesquisadores(as) quanto ao seu algoritmo de corte de imagem, um grupo de pesquisadoras também foi ignorado em uma reportagem sobre o viés racista em tecnologias de reconhecimento facial – assunto no qual elas foram pioneiras.

Joy Buolamwini, Timnit Gebru e Deborah Raji conduziram, em 2018, uma pesquisa que concluiu que as tecnologias de reconhecimento facial das empresas Amazon, Microsoft e IBM não detectam rostos de pessoas negras nem classificam rostos de mulheres com precisão. O trabalho virou inclusive o tema principal do documentário Coded Bias, que convoca uma série de pesquisadoras, referência nos estudos sobre algoritmos e inteligência artificial, para tratar dos vieses – especialmente racistas e sexistas – na tecnologia.

Pioneira na área e protagonista do filme, Buolamwini foi contatada pelo programa jornalístico estadunidense 60 Minutes para colaborar em uma matéria sobre o viés racista contido em tecnologias de reconhecimento facial utilizadas pela polícia. A reportagem foi ao ar no dia 16 de maio de 2021 – sem a participação da pesquisadora e nem ao menos menção ao estudo que realizou. Em seu lugar, foi entrevistado um pesquisador (branco), autor de um estudo de 2019 que, inclusive, cita a pesquisa de Buolamwini e das demais pesquisadoras como “motivação”.

Como resposta ao ocorrido, as pesquisadoras criaram uma petição online para que os envolvidos na realização do programa 60 Minutes deem o devido crédito ao trabalho que realizaram.