Dobras #59 // UMA ANÁLISE SOBRE O ENFRENTAMENTO AO RACISMO ALGORÍTMICO A PARTIR DA EXPERIÊNCIA DO USUÁRIO NAS PLATAFORMAS DIGITAIS NO CONTEXTO DAS MULHERES NEGRAS

5 de maio de 2023

Por Laís Sebben[1]Laís é comunicóloga e mestranda em Comunicação e Cultura pela ECO/UFRJ.

 

Racismo algorítmico é “uma espécie de atualização do racismo estrutural”, cuja manutenção produz vantagens em prol de um grupo hegemônico, “profundamente, dependente de uma epistemologia da ignorância para manutenção do poder”[2]FIOCRUZ. “Tarcízio Silva: O racismo algorítmico é uma espécie de atualização do racismo estrutural”. Disponível em: … Continue reading.

Tarcízio Silva

 

As pesquisas na internet feitas por brasileiros para saber o que é racismo estrutural aumentaram exponencialmente[3]UOL. “Por que as pesquisas online por racismo estrutural explodiram no Brasil?”. Disponível em: … Continue reading. No balanço entre os anos de 2019 a 2022, as buscas por “racismo estrutural” subiram mais de 1.400% em comparação com os anos anteriores. Alguns fatos para tentar explicar essa crescente busca podem estar relacionados com casos que tiveram grande repercussão na mídia internacional, como o assassinato de George Floyd, em Minneapolis (EUA), em maio de 2020, e, na mídia nacional, com o assassinato de João Alberto Silveira Freitas, que ocorreu em uma unidade do Carrefour, em Porto Alegre/RS, em novembro do mesmo ano.

Esses acontecimentos citados são resultado de uma sociedade cujo racismo é regra e não exceção (ALMEIDA, 2019). “O racismo é uma decorrência da própria estrutura social, ou seja, do modo ‘normal’ com que se constituem as relações políticas, econômicas, jurídicas e até familiares, não sendo uma patologia social e nem um desarranjo institucional”. (p. 36); trata-se do racismo estrutural. Portanto, o racismo é parte de um processo social que “ocorre pelas costas dos indivíduos e lhes parece legado pela tradição”. Neste caso, além de medidas que coíbam o racismo individual e institucionalmente, torna-se imperativo refletir sobre mudanças profundas nas relações sociais, políticas e econômicas (idem).

Dentro deste panorama, existe o racismo algorítmico. Esse tipo de racismo, presente na comunicação digital, é ainda mais complexo de ser observado: “A compreensão de muitas manifestações do racismo em práticas cotidianas na forma de microagressões é especialmente difícil quando se trata de tecnologias algorítmicas de comunicação”. (SILVA, 2022, p. 29)

O algoritmo, por ser construído por seres humanos, é orientado por tendências pré-existentes nos padrões da aplicação de regras. E como vigora a predominância de homens brancos nos postos de trabalho voltados à tecnologia, pressupõe-se que a arquitetura algorítmica tende a reproduzir comportamentos racistas, os quais têm sido observados em plataformas digitais, mídias sociais e aplicativos em geral: “Se a tecnologia é erroneamente enquadrada e percebida como neutra, a este equívoco se soma a negação do racismo como fundante de relações e hierarquias sociais em países como o Brasil”. (idem)

Para contextualizar, vejamos alguns fatos ocorridos. O levantamento da Rede de Observatórios da Segurança[4]The Intercept Brasil. “Levantamento revela que 90,5% dos presos por monitoramento facial no Brasil são negros”. https://theintercept.com/2019/11/21/presos-monitoramento-facial-brasil-negros/ (2019), que monitorou os casos de prisões e abordagem com o uso de reconhecimento facial, desde que foram implantados (março de 2019), revelou que 90,5% das pessoas que foram presas por terem sido flagradas por câmeras eram negras. Entretanto, parte significativa destas prisões está baseada em equívocos na origem. 

Um dos inúmeros casos que exemplificam isto ocorreu em julho de 2019, no segundo dia do uso do sistema de reconhecimento facial por câmeras no Rio de Janeiro, quando uma mulher foi presa injustamente ao ser identificada erroneamente pelo sistema da Polícia Militar[5]O Globo. “Reconhecimento facial falha em segundo dia, e mulher inocente é confundida com criminosa já presa”. … Continue reading. O sistema apontou mais de 70% de semelhança entre ela e Maria Leda, uma pessoa foragida da justiça. Porém, a verdadeira criminosa estava presa desde 2015. Esse fato demonstra que as tecnologias de reconhecimento facial apresentam problemas graves, especialmente quando se trata da identificação de rostos de pessoas negras.

Já em um caso mais recente, divulgado pelo jornal Folha de S.Paulo[6]Folha de S.Paulo. “LinkedIn derruba anúncio que dava preferência a candidatos negros e indígenas”. … Continue reading, ocorrido em março de 2022, o LinkedIn, rede social voltada a trabalho, excluiu a publicação de uma vaga de emprego que dava prioridade, na seleção, a pessoas negras (pretas e pardas) e indígenas. O anúncio foi criado pelo Centro de Análise da Liberdade e do Autoritarismo (Laut) e definiu a preferência como parte das ações afirmativas para valorizar a pluralidade da equipe da empresa. O suporte do LinkedIn, entretanto, alegou que o anúncio havia sido retirado do ar por ter sido considerado discriminatório. 

É necessário ressaltar que, além da questão racial, trata-se também de um fenômeno de cunho machista, que afeta especificamente as mulheres negras na área da tecnologia. Essa escassez de mulheres negras na tecnologia brasileira foi estudada pela Preta Lab, plataforma que conecta mulheres negras que são ou gostariam de ser da tecnologia, por meio de ciclos formativos, redes profissionais, mercado de trabalho, consultorias e estudos; e a consultoria de software Thoughtworks. Os dados foram observados por meio da pesquisa #QuemCodaBR[7]Quem Coda. https://www.pretalab.com/report-quem-coda., em um esforço para tentar suprir a lacuna de dados sobre o setor da tecnologia, entre 2018 e 2019. Foram ouvidos 693 profissionais de tecnologia no Brasil. As respostas auxiliam a demonstrar a falta de representatividade no setor. Em relação à diversidade presente nas equipes de trabalho em tecnologia no Brasil, foi constatado que em 64,9% dos casos, as mulheres representam no máximo 20% das equipes de trabalho em tecnologia.

Enfrentamento ao racismo algorítmico

Em contrapartida, existem mulheres negras atuando para enfrentar o cenário indicado na pesquisa #QuemCodaBR, como a UX para Minas Pretas (UXMP), edtech que tem como foco a capacitação e empregabilidade de mulheres negras na área de User Experience (UX) por meio da promoção do acesso à educação e da mediação de oportunidades de emprego para este público.

O design e a tecnologia têm atuado como ferramentas essenciais no que se refere às atividades diárias da sociedade. Assim, qualquer pessoa terá uma experiência de usuário durante o seu cotidiano. Ela estará presente até mesmo que ninguém saiba o que significa.

Porém, na maioria dos espaços não encontram-se pessoas negras facilmente. Neste ponto deve-se refletir de que forma o UX proporcionará boas jornadas para as pessoas negras se elas não estão presentes nestes ambientes nos quais as ferramentas e plataformas são implementadas.

Conforme apontou a pesquisa #QuemCodaBR, a falta de representatividade nas empresas de tecnologia é uma realidade. Como consequência, podem ocorrer problemas na utilização de produtos e serviços oferecidos pelas empresas. Essas falhas, que demonstram comportamentos racistas, afetam diretamente a vida das pessoas negras.

Portanto, a experiência do usuário, proposta pela UXMP, passa, em primeiro plano, pela criação e implementação de estratégias de atuação nas redes sociais à luz do reconhecimento e valorização da mulher negra enquanto produtora ativa da economia algorítmica.

Em um segundo plano, a experiência do usuário atua como protagonista no enfrentamento ao racismo algorítmico. Assim, visto que as mulheres negras da UXMP recebem apoio, formação e orientação para iniciarem a sua trajetória profissional no mercado da tecnologia, torna-se praticamente uma realidade o fato de que os produtos e serviços desenvolvidos por esses grupos oferecem uma vivência segura e confortável para todas as pessoas, especialmente as pessoas negras.  

A partir dessa análise, torna-se essencial compreender o racismo algorítmico a partir do racismo estrutural, de forma a verificar que tipos de atuação racional, no que tange à experiência de usuário nas plataformas digitais, podem modificar a conduta e a subjetividade destes usuários, em meio a uma ambiência que retroalimenta uma economia baseada na governamentalidade algorítmica e no capitalismo da vigilância, que “se qualifica como uma nova lógica de acumulação, com uma nova política e relações sociais que substituem os contratos, o Estado de direito e a confiança social pela soberania do Big Other[8]Para Zuboff, Big Other é o poder soberano de um futuro próximo que aniquila a liberdade alcançada pelo Estado de direito. (ZUBOFF, 2015, p. 42-43). (ZUBOFF, 2015, p. 47).

Existe, então, um enfrentamento ao racismo algorítmico dentro das redes sociais, com a UXMP, a partir do viés da experiência do usuário, ou até mesmo com outras iniciativas semelhantes dentro da tecnologia?

Observa-se que o sistema de poder se apoia nesse comportamento racista para que a sociedade de controle, agora conduzida a partir de máquinas de informática e computadores, continue dentro da ordem desejada pelo capitalismo de vigilância.

Fernanda Bruno (2013) discorre sobre um novo dispositivo de poder e visibilidade, a partir do aparecimento da comunicação de massa, particularmente da televisão. Não obstante, ela ressalta um outro deslocamento mais recente: “aquele em que o foco privilegiado de visibilidade volta a ser o indivíduo e suas tecnologias comunicacionais” (p. 58).

Portanto, precisamos analisar como ocorrem as subjetividades nas redes sociais com a exposição dos indivíduos às tecnologias e redes de comunicação. Ainda, visto que a subjetividade está diretamente ligada aos dispositivos de visibilidade, precisamos verificar as nuances de uma governamentalidade algorítmica, questão trazida pelos autores Antoinette Rouvroy e Tomas Berns (2019) como alerta. A ação sobre os comportamentos, o que os autores chamam de “governo algorítmico”, se for levada em uma perspectiva individualista, liberal, aparecerá como inofensiva e objetiva. Mas é necessário analisar de forma mais profunda como esse governo atua de fato: “A inofensividade, a ‘passividade’ do governo algorítmico é apenas aparente: o governo algorítmico ‘cria’ uma realidade ao menos tanto quanto a registra”. (p. 144-145)

Tarcízio Silva (2022) elenca os principais elementos para mostrar como a inteligência artificial, principalmente o aprendizado de máquina baseado em dados, pode alimentar sistemas algorítmicos que reproduzem o preconceito e executam a discriminação.

Silva observa ainda que compreender as manifestações de racismo em práticas cotidianas, na forma de microagressões[9]Microagressões são “ofensas verbais, comportamentais e ambientais comuns, sejam intencionais ou não intencionais, que comunicam desrespeito e insultos hostis, depreciativos ou negativos” … Continue reading, é difícil quando trata-se de tecnologias algorítmicas de comunicação, pois estas trazem novas camadas de opacidade ao seu funcionamento, uma vez que “se a tecnologia é erroneamente enquadrada e percebida como neutra, a este equívoco se soma a negação do racismo como fundante de relações e hierarquias sociais em países como o Brasil” (idem, p. 29). Fato é que as práticas da visão computacional, as tecnologias carcerárias algorítmicas, como o reconhecimento facial, avançam a favor do encarceramento em massa e do genocídio negro (idem, p. 96-97).

Existe um longo caminho a ser percorrido a fim de que a sociedade possa superar os males trazidos pelas discriminações algorítmicas e, como Tarcízio Silva levanta, a manutenção dessa atualização do racismo estrutural continua fortalecendo um sistema de poder. Como vamos enfrentá-lo?

 

Referências

ALMEIDA, S. (2019). Racismo Estrutural. Brasil: Editora Jandaíra.

BRUNO, Fernanda et al. (Ed.). Tecnopolíticas da vigilância: perspectivas da margem. Boitempo Editorial, 2019.

BRUNO, Fernanda. Máquinas de ver, modos de ser: visibilidade e subjetividade nas novas tecnologias de informação e de comunicação. Revista Famecos, v. 11, n. 24, p. 110-124, 2004.

DELEUZE, Gilles. Conversações, 1972 – 1990. Trad. de Peter Pál Pelbart. Rio de Janeiro: Editora 34, 1992.

FOUCAULT, Michel. Microfísica do poder. Trad. Roberto Machado. Rio de Janeiro: edições Graal, 1979. 

SILVA, Tarcízio. Racismo algorítmico: inteligência artificial e discriminação nas redes digitais. Brasil, Edições Sesc SP, 2022.

 

References

References
1 Laís é comunicóloga e mestranda em Comunicação e Cultura pela ECO/UFRJ.
2 FIOCRUZ. “Tarcízio Silva: O racismo algorítmico é uma espécie de atualização do racismo estrutural”. Disponível em: https://cee.fiocruz.br/?q=Tarcizio-Silva-O-racismo-algoritmico-e-uma-especie-de-atualizacao-do-racismo-estrutural.
3 UOL. “Por que as pesquisas online por racismo estrutural explodiram no Brasil?”. Disponível em: <https://www.uol.com.br/tilt/noticias/redacao/2022/07/03/por-que-a-busca-por-racismo-estrutural-explodiu-no-brasil.htm>
4 The Intercept Brasil. “Levantamento revela que 90,5% dos presos por monitoramento facial no Brasil são negros”. https://theintercept.com/2019/11/21/presos-monitoramento-facial-brasil-negros/
5 O Globo. “Reconhecimento facial falha em segundo dia, e mulher inocente é confundida com criminosa já presa”. https://oglobo.globo.com/rio/reconhecimento-facial-falha-em-segundo-dia-mulher-inocente-confundida-com-criminosa-ja-presa-23798913
6 Folha de S.Paulo. “LinkedIn derruba anúncio que dava preferência a candidatos negros e indígenas”. https://www1.folha.uol.com.br/mercado/2022/03/linkedin-derruba-anuncio-que-dava-preferencia-a-candidatos-negros-e-indigenas.shtml
7 Quem Coda. https://www.pretalab.com/report-quem-coda.
8 Para Zuboff, Big Other é o poder soberano de um futuro próximo que aniquila a liberdade alcançada pelo Estado de direito. (ZUBOFF, 2015, p. 42-43).
9 Microagressões são “ofensas verbais, comportamentais e ambientais comuns, sejam intencionais ou não intencionais, que comunicam desrespeito e insultos hostis, depreciativos ou negativos” contra minorias vulnerabilizadas, como pessoas racializadas, mulheres, migrantes entre outros – assim como as interseções destas variáveis. (SUE apud SILVA, 2022, p. 27).