#Dobras 16: // Lições de South Park: Notícias falsas, extremismo e a economia da atenção

23 de agosto de 2018

Por Lorena Regattieri

“Ganho dinheiro com o Facebook usando do meu conteúdo falso para pagar o Facebook e promover minhas histórias falsas”, professor Chaos. Franchise Prequel, South Park

Nada como um episódio de South Park para falar sério sobre as angústias do nosso tempo. O programa da Comedy Central é um sucesso porque consegue provocar a pensar e nos fazer rir com as nossas tragédias. E isso tudo sem tirar sarro com quem sempre foi excluído, mas imbecilizando aqueles que estão no topo. No quarto episódio da vigésima primeira temporada, “Franchise Prequel”, cujo tema é “notícias falsas” e conteúdo malicioso, os pais da cidade temem que as redes sociais estejam corrompendo seus filhos. Eles avaliam que as crianças “não têm capacidade cognitiva” para separar o que é fatos e o que é ficção nas informações online. No entanto, o episódio mostra que são os adultos que são facilmente enganados. Com base em notícias falsas lidas em seus feeds do Facebook, eles passam a acreditar que os compartilhamentos dos filhos vão ser distorcidos e eles vão agir de modo diferente do usual, de tão contaminados pelo conteúdo espalhado nas redes sociais.

O episódio segue Stan, Kyle, Cartman, e Kenny e outros personagens como o grupo de super-heróis Coon and Friends. Na época das plataformas de streaming, as crianças estão cientes que qualquer história pode ser comprada e, assim, tentam construir um universo cinematográfico próprio, como o da Marvel, ou, pelo menos, ter um projeto envolvendo super-heróis comprado pela Netflix. Spoiler: os super-heróis estão lutando contra o Professor Chaos (Butters), cuja equipe, trabalhando em uma fábrica abandonada cheia de computadores, está “fazendo o que o Facebook foi projetado para fazer”, ou seja, semear mentiras perversas para rasgar o próprio tecido da sociedade. Coon and Friends chegam a um ponto de aflição quando essas mentiras acabam com a ideia do projeto da série streaming e uma confusão generalizada é instaurada: notícias falsas se espalham sobre o projeto da franquia eCoon and Friends lutam, desesperados, contra as fake news para tentar emplacar a franquia de super-heróis na Netflix.

Por outro lado, os pais preocupados começam a lidar com Mark Zuckerberg, avaliando que ele poderia acabar com esse problema das notícias falsas (em que eles são justamente o que mais caem!). Os pais convidam Zuckerberg para a cidade para interrogatório. A melhor parte é ver que o personagem que aparece é uma figura estranhamente robótica, completamente non sense e acaba se tornando uma persona non grata na comunidade.

South Park em um episódio condensou a problemática relação entre as estratégias de captura da atenção e os impactos na comunidade. Será que as notícias falsas fazem parte desse repertório? A manipulação da opinião pública sobre plataformas de mídias sociais e aplicativos de mensagens privada e pública surgiu como uma ameaça crítica à vida pública (Bolsover, Howard, 2017). Em todo o mundo, usuários anônimos, grupos clandestinos, agências de marketing e até partidos políticos estão explorando as redes sociais para espalhar desinformação, exercer influência e minar a confiança na mídia e nas instituições públicas (Caetano et al, 2018). A exploração da desinformação também está servindo como instrumento para grupos extremistas espalharem o discurso de ódio. No Brasil, há toda uma ecologia em rede nas mídias sociais e nos aplicativos de mensagem instantânea com uma sólida e constante campanha de viralização de conteúdos que promovem a violência ou têm como objetivo principal incitar o ódio contra indivíduos ou grupos, com base em determinadas características como: raça ou etnia, religião, deficiência, sexo e orientação/identidade sexual.

No Brasil, o WhatsApp é o aplicativo de mensagens mais utilizado. A facilidade no uso cotidiano, que demanda ações descomplicadas como tocar, clicar, selecionar e encaminhar, torna o WhatsApp uma plataforma de comunicação ágil para a maioria da população brasileira (Seufert, Hobfeld, Schwind, 2018). Segundo recente pesquisa do Instituto Reuters para Estudo de Jornalismo, dos 120 milhões de usuários no país, 61% adotam a plataforma como fonte de notícias. Entretanto, o aplicativo é frequentemente utilizado para a divulgação de notícias falsas, que podem influenciar os rumos das eleições de outubro, além de espalhar conteúdo de ódio. Conforme matéria de Juliana Gragnani para BBC Brasil, são justamente os grupos de família o principal vetor de notícias falsas no WhatsApp.

Neste contexto, a comunicação no WhatsApp amplificou, no país, o boato de que a vacina contra a febre amarela exigida pelo governo era perigosa, levando as pessoas a evitá-la. Histórias falsas se espalharam sobre candidatos políticos, sobre a morte da vereadora Marielle Franco e sobre uma criança morta em uma operação da polícia em uma favela do Rio de Janeiro, informações mentirosas sobre o aborto, mensagens indicando notícias falsas de sites maliciosos reportaram o recebimento de prêmio do Governo Federal de famosa cantora e drag queen brasileira. Em maio de 2018, o WhatsApp foi ferramenta de destaque durante a greve nacional de caminhoneiros, tendo toda a organização em rede e o compartilhamento de informações pelos grevistas e apoiadores ocorridos no aplicativo. Esses são alguns exemplos do papel central que o aplicativo tem no Brasil – principalmente com a aproximação das eleições – as informações podem se tornar virais em minutos, à medida que os indivíduos encaminham mensagens para seus amigos ou grupos, sem que seja possível determinar sua origem.

Nessas plataformas, os usuários brasileiros também são recordistas de horas online. De acordo com a pesquisa Futuro Digital em Foco Brasil, o tempo médio dedicado às mídias sociais no país é 60% maior do que o resto do mundo. Em 2015, o brasileiro gastava 650 horas por mês em redes sociais, sendo que a rede social recordista em visitas únicas é o Facebook. No Youtube, o Brasil também é destaque: 95% da população online acessa a plataforma, segundo a pesquisa Youtube Insights. Destes, 96% são jovens de 18 a 35 anos, 63% dos consumidores de afinidades no YouTube dizem que não conseguiriam viver sem a plataforma e 87% concordam que é uma plataforma que permite o consumo de qualquer tipo de conteúdo, quando e onde quiser. Esses números refletem o que às vezes esquecemos sobre essas plataformas de interação: nós somos o produto, interessa um tempo qualificado gasto na plataforma e que, principalmente, somos nós os produtores de conteúdo.

A pesquisadora Zeynep Tufekci vem debatendo a popularidade de conteúdos maliciosos, notícias falsas e incitação ao ódio na internet a partir do que vem sendo chamada por ela e outras autoras e autores de economia da atenção. Tufekci abre uma fresta na caixa preta da governamentalidade psicossocial e biométrica dos algoritmos ao apontar que há uma estreita correlação entre a política dos algoritmos e os extremismos, fundamentalismos e terrorismos. Seus estudos mostram que cada vez mais nossa infraestrutura digital é uma forma de controle social. YouTube, Facebook, Reddit, 4Chan, Twitter e Instagram, não importa aonde você esteja, pois para o algoritmo você ainda não se tornou tão radical assim.

Basta um experimento simples e isso vale para qualquer lugar do mundo. Tomemos um eleitor procurando um vídeo sobre presidenciáveis no YouTube, esse usuário inicia a procura com o reconhecidamente mais “radical” candidato Jair Bolsonaro (PSL), o usuário assiste o primeiro vídeo e logo a lista de sugestões oferece novos vídeos com o candidato e mais alguns sobre conteúdos conectando a taxonomia de procura do histórico do usuário. Depois de assistir o primeiro e clicar nas sugestões, o algoritmo começa a sugerir o que aparentemente tem relação com a pesquisa e outros assuntos que cercam o candidato, só que mais extremos.

É sobre isso que Tufecki está falando: o algoritmo investe no extremismo. É um modelo de negócios. Usados para manter as pessoas no site e influenciar seu comportamento, eles se tornam ordenadores “naturais” de grupos de ódio político e social. Eles facilmente organizam a opinião pública e encontram modos de promover maiorias políticas (Shorey, Howard, 2016). Os já conhecidos robôs nas redes sociais são apenas ferramentas algorítmicas, apareceram para se integrar a infraestrutura montada pelas empresas (Howard, Wooley, Calo, 2017). Eles formam grupos de ódio racial, étnico e religioso com a facilidade de uma aranha traçando sua teia. Eles produzem uma arquitetura da informação que responde apenas às diretrizes de poder medidas pelos efeitos provocados. Como apontou Henrique Antoun, “as inteligências artificiais desconhecem o “mundo” e promovem o nada com o estúpido entusiasmo de quem vê o sucesso dos seus algoritmos psicossociais e biométricos governando as populações”.

As empresas de redes sociais não se preocupam e nem vão se preocupar com os extremismos. No episódio Franchise Prequel, o aparecimento de Mark Zuckerberg como aquele capaz de propor soluções para o problema da desinformação é tratado como uma piada completa. A cada nova investida dos Coon and Friends em derrubar um conteúdo falso, eles descobriam que estavam perdendo tempo porque as pessoas eram atenciosas a esse conteúdo e Mark mais atrapalhava do que colaborava com as suas sugestões à vida da comunidade. As empresas podem até realizar operações de retirada de conteúdos, mas repare que elas sempre estão atuando no âmbito da resposta aos investidores. Nunca é demais lembrar que são empresas, portanto, não tem nenhum compromisso com a democracia ou com a sociedade, apenas com a bolsa de valores. Quando dizem: apenas “organizamos a informação” ou “temos compromisso” com um ambiente saudável, devemos ficar atentas. É uma questão grave para nós, pesquisadores desse campo transdisciplinar entre a comunicação e a computação, demandarmos o direito de conhecer o dispositivo que operam com as nossas subjetividades. Um rápido exercício para nos pensarmos como clientes nas redes sociais: imagina se fosse um banco dizendo o mesmo? Confie em nós, apenas organizamos o dinheiro que circula aqui. Ingenuidade?

A relação das empresas com o controle está diretamente relacionada com a arquitetura do engajamento. Enquanto o comprador de anúncios tem distintas opções de alvo e perfil, os usuários têm no máximo três. Como uma ferramenta política, temos uma diferença gigante em termos de alcance, visto que as métricas relacionadas aos usuários são momentâneas e implícitas. Assim, “o que as pessoas querem” se afirma como um dissipador ou atrativo estranho. Eles são uma força. É a receita para um jogo de impulsos (desonesta) em nome do commodity da ‘atenção’ e não do ‘discurso’. É para isso que perfis fakes, semi-automáticos ou bots são utilizados. Eles agenciam nesta máquina como estratégia de guerra, mas não são a preocupação maior. Todo esse campo denominado machine learning, deep learning, inteligência artificial e algoritmos não podem abrir uma chancela para o obscurantismo. Machine learning opera com a opacidade, estamos criando ferramentas autopilotadas com uma estrutura algorítmica sem conexão com valores ‘humanos’. Novamente, Tufekci nos lembra que tudo isso é em nome do click.

Voltando ao episódio de South Park, cheio de tiradas ótimas sobre os comunicados turvos da empresa Facebook, e que, posteriormente, iríamos ver ao vivo no depoimento de Zuckerberg no congresso norte americano sobre o caso da Cambridge Analytica. Quando um dos pais diz “o Facebook se tornou uma ferramenta para alguns atrapalharem nosso país e nossa comunidade”, Zuckerberg ri bizarramente e diz: “Você diz essas coisas como se fossem minha culpa, e não é bem assim”. Quando outro pai preocupado responde: “Bem, você criou uma plataforma com um incentivo monetário para as pessoas espalharem informações erradas”, Zuckerberg diz à cidade que não pode bloquear seu “estilo de luta” e agita os braços enquanto faz efeitos sonoros como um velho vilão de artes marciais do cinema. Numa crítica a expansão implacável do Facebook em todas as áreas da vida, e no estilo obtuso de Zuckerberg ao falar em público, o episódio não dá respostas, mas material para pensar como esse modo de operar das empresas é baseado em algum nível nessa opacidade da mediação entre usuários e plataforma. Um úitimo spoiler: South Park só volta a ser uma comunidade pacata quando Coon and Friends conseguem destroçar com Zuck e expulsa-lo de lá.

 

Referências:

South Park – Franchise Prequel: http://southpark.cc.com/full-episodes/s21e04-franchise-prequel

CAETANO et al. Analyzing and characterizing political discussions in WhatsApp public groups. Association for the Advancement of Artificial Intelligence, 2018.

GRAGNANI, J. Pesquisa inédita identifica grupos de família como principal vetor de notícias falsas no WhatsApp. Disponível em: https://www.bbc.com/portuguese/brasil-43797257. Acessado em: 5 de ago de 2018.

BOLSOVER, G.; HOWARD, P. Computational Propaganda and Political Big Data: Moving Toward a More Critical Research Agenda. Big Data VOL. 5, NO. 4, 2017.

HOWARD, P.; WOOLEY, S.; CALO, R. Algorithms, bots, and political communication in the US 2016 election: The challenge of automated political communication for election law and administration. In: Journal Journal of Information Technology & Politics Volume 15, Issue 2, 2018.

O Brasil Digital do Futuro Relatório. Disponível em:

https://www.comscore.com/por/Insights/Apresentacoes-e-documentos/2016/O-Brasil-Digital-do-Futuro. Acessado em: 5 de ago de 2018.

Reuters Institute Digital News Report 2018. Disponível em:

https://reutersinstitute.politics.ox.ac.uk/sites/default/files/digital-news-report-2018.pdf. Acessado em: 5 de ago de 2018.

SHOREY, S.; HOWARD, P. Automation, Big Data, and Politics: A Research Review. In: International Journal of Communication, 10(2016), 5032–5055, 2016.

SEUFERT et al. Group-based Communication in WhatsApp. In: 2016 IFIP Networking Conference (IFIP Networking) and Workshops, 2016.

TUFEKCI, Z. Estamos criando uma distopia só para fazer as pessoas clicarem em anúncios. Ted Talk. Disponível em: https://www.ted.com/talks/zeynep_tufekci_we_re_building_a_dystopia_just_to_make_people_click_on_ads?language=pt-br. Acessado em: 5 de ago de 2018.

_____. Why online politics gets so extreme so fast. The Ezra Klein Show. Disponível em: https://www.vox.com/2018/8/6/17656154/zeynep-tufekci-book-recommendations-ezra-klein-show-amazon-technology-youtube. Acessado em: 5 de ago de 2018.

_____. Engineering the public: Big data, surveillance and computational politics. First Monday, Volume 19, Number 7 – 7, 2014.