#Dobras 39 // Conspiração e engajamento no YouTube: o modelo de negócios paranoide das plataformas

28 de outubro de 2019

Por Paulo Faltay*

Evidências que o planeta é plano, os perigos da vacinação, estratégias de dominação comunista das instâncias de poder global. Grande parte do conteúdo que trafega nas chamadas plataformas é formada por teorias e narrativas conspiratórias. Apesar das grandes empresas de tecnologia anunciarem medidas para combater informações não-factuais em suas serviços, as precauções esbarram em um fator estrutural: a circulação de imagens, vídeos e textos envolvendo essas temáticas é parte significativa do seu modelo de negócios.

Em linhas gerais, teorias da conspiração são crenças ou narrativas explicativas que buscam compreender eventos significativos a partir de ações de grupos de pessoas ou organizações que se unem secretamente para atingir um determinado objetivo. Usualmente, a tarefa dos conspiradores é, além de atingir sua meta, ocultar a natureza do evento, a intencionalidade dos acontecimentos e as potenciais consequências nocivas deste objetivo para um outro grupo de pessoas ou a sociedade como um todo.

No artigo Teorias da conspiração: significados em contexto brasileiro (Rezende et all, 2019), a partir de entrevista qualitativa com 383 estudantes universitários, as autoras e autores chegaram a duas hipóteses. A primeiro versa sobre como as respostas sugerem que estas narrativas podem ser compreendidas como tendo uma função explicativa e estando associadas a processos mentais que buscam considerar a realidade como algo ordenado, compreensível e previsível. Tais teorias são concebidas como um conjunto de pressupostos para explicar a existência de um “inimigo” e evidenciam a necessidade intrínseca que os indivíduos têm de explicar eventos sociais complexos.

Já no segundo ponto, há a ideia de que as teorias da conspiração atuam como uma forma de contestação de fatos sociais. Nesse sentido, elas são frequentemente endossadas e aceitas quando não há uma explicação definitiva ou satisfatória para um evento, ou quando a versão oficial de um acontecimento não é considerada verídica.

São resultados que seguem a linha de pesquisas internacionais sobre o tema. Dentro desta perspectiva, uma das conclusões comuns a diversos estudos indica que ao serem confrontadas com informações sobre um evento complexo e considerado inexplicável, as pessoas procuram minimizar a incerteza por meio de “atalhos cognitivos”, levando, assim, com que indivíduos sigam a lógica de ideias conspiratórias (Jolley; Douglas; Sutton, 2017).

Christopher French e Robert Brotherton (2015), pesquisadores do departamento de psicologia e da Unidade de Psicologia Anomalista da Universidade de Goldsmith, defendem que além das pessoas terem a tendência em reconhecer padrões e regularidades – e muitas vezes exagerarem nesses indícios interpretativos –, quem acredita em teorias conspiratórias tendem a atribuir o curso de ações complexas e ambíguas a intencionalidade de algum agente.

Richard Hofstadter (1996), em o estilo paranoide da politica americana, indica que a crença conspiratória se relaciona a uma tendência geral de explicar e racionalizar fenômenos complexos do mundo em um conjunto coerente e sistematizado de pressupostos, destacando a necessidade de as pessoas explicarem eventos que são difíceis de compreender. Ainda, segundo o autor, há nos conteúdos de tonalidades paranoides de teorias da conspiração um chamado a ação:

“Como membro de uma vanguarda capaz de perceber a conspiração antes que ela se torne totalmente óbvia para um público ainda desatento, o paranoico é um líder militante. Ele não vê um conflito social como algo a ser mediado e acordado, como um político age. Já que o que está em jogo é sempre um conflito entre o bem absoluto e o mal absoluto, a qualidade necessária não é firmar acordos, mas sim a determinação de lutar até o fim” (idem, pp. 30-31).

Além de preliminares e especulativos, os estudos citados anteriormente têm como bases epistemológicas ciências cognitivas e comportamentais que estão distantes de serem consensuais. Porém, deles e do trecho acima gostaria de destacar indícios que aproximam as teorias da conspiração às lógicas de circulação de conteúdo em plataformas sociais: com a promessa de relevar tramas secretas, explicar eventos complexos e expor “inimigos organizados e ocultos”, as teorias da conspiração promovem engajamento.

 

Plataformização da conspiração e modelo de negócios paranoide das plataformas

 

“Teorias da conspiração: elas são apenas contos de fadas que adultos dizem uns aos outros no YouTube” (John Oliver)

 

Sob a noção de “plataformas”, as grandes empresas de tecnologia e suas aplicações ganharam escalas e níveis de utilização gigantescos, passando a desempenhar um preponderante papel na organização de importantes áreas da vida pública como mobilidade urbana, serviços de logística, moradia e, especialmente, jornalismo e trocas comunicacionais (van Dijck, Poell e de Waal, 2018). Neste sentido, apesar de não ser uma peça discursiva desinteressada, o relatório Creators Connect: o poder dos YouTubers, produzido a partir de uma pesquisa do Google realizada em julho de 2018, traz um conjunto de dados significativos sobre a tendência ao deslocamento do centro de trocas comunicacionais de mídias de massa para as plataformas e redes sociais: os youtubers (20%) ultrapassaram os jornalistas (19,1%) como formadores de opinião mais influentes entre as pessoas que utilizam internet. É importante ressaltar, portanto, que a descentralização da produção de conteúdo não implica em uma ausência de intermediação na circulação das informações.

Figura 1: Dados do relatório Creators Connect: o poder dos YouTubers sobre respostas à pergunta: “Selecione abaixo as pessoas que mais influenciam a sua opinião” – 26 de julho de 2018. Disponível em: https://www.thinkwithgoogle.com/intl/pt-br/advertising-channels/v%C3%ADdeo/creators-connect-o-poder-dos-youtubers/

A ressalva de que há uma mudança na mediação e não uma desintermediação se faz necessária porque a popularização de ideias ou crenças conspiratórias em circulação em plataformas e redes sociais não pode ser explicada apenas levando em conta aspectos individuais e dimensões cognitivas particulares. Se o consumo e compartilhamento de narrativas de conspiração deixam de ser prerrogativa de grupos delirantes ou extremistas e passam a atuar como uma forma de explicação social cotidiana e uma maneira cada vez mais comum de compreender questões sociais diversas, é preciso se debruçar também sobre como o modelo de negócios das empresas de tecnologia influencia na disseminação destes conteúdos.

Aqui me interessa perceber como os dados da pesquisa sobre o poder de influência e de formação de opinião dos youtubers se conjuga com o fato da plataforma ter se tornado um grande celeiro de divulgação, veiculação e compartilhamento de teorias da conspiração. Após diversos casos controversos, em janeiro desse ano, em uma postagem em seu blog oficial, o YouTube afirmou que iria deixar de sugerir vídeos com “conteúdo limítrofe e conteúdo que poderia desinformar os usuários de maneiras prejudiciais”. O YouTube deu apenas três exemplos dos tipos de vídeos que deixarão de ser recomendados: aqueles que promovem uma falsa cura milagrosa para uma doença grave, aqueles que afirmam que a Terra é plana ou que fazem afirmações falsas sobre eventos históricos como os ataques de 11 de setembro. O anúncio deixou evidente também que não ira remover os vídeos e que inscritos em canais que divulgam esses vídeos iam continuar recebendo notificações de novos conteúdos.

No entanto, devido à falta de exatidão sobre o status dos seus produtos e serviços e seu auto-posicionamento como intermediários, as plataformas tendem a fugir das responsabilidades sociais que acompanham a ocupação de importantes funções sociais (van Dijck, Poell e de Waal, 2018). Com efeito, em um artigo bastante crítico ao termo “plataforma”, Gillespie (2010) o aponta como um truque discursivo das empresas para ocultar as mediações operadas por seus sistemas de curadoria e recomendação automatizados.

As respostas do Youtube às controvérsias envolvendo conteúdos conspiratórios – como também discursos de ódio – esbarram em um fator estrutural: a circulação de conteúdo envolvendo essas temáticas é parte significativa do seu modelo de negócios. Com efeito, conteúdos estapafúrdios sobre a origem da vida humana ou sobre vida extraterrestre apresentam um grande número de visualizações (Fig. 2; Fig. 3). Por sua vez, ao se procurar vídeos no serviço sobre termos e episódios políticos que marcaram o debate eleitoral de 2018 no Brasil, a pessoa usuária é levada a conteúdos de patente teor conspiratórios. Por exemplo, no caso “Foro de São Paulo” (Fig. 4) os primeiros resultados ofertados no serviço são relacionados ao astrólogo Olavo de Carvalho e a uma fala descontextualizada do ex-presidente Lula, enquanto ao procurar os vídeos mais vistos com o termo “Adélio Bispo” (Fig. 5), os quatro primeiros resultados são conteúdos com informações falsas e conspiratórias.

Vídeo que apresenta teoria sobre origem da vida humana, com mais de 5.681.109 visualizações no dia 09 de junho de 2019. Disponível em: https://www.youtube.com/watch?v=Dfl4ZaiucpQ

 

Vídeo que apresenta uma entrevista com uma extraterreste reptiliana com mais de 2 milhões de visualizações. Disponível em: https://www.youtube.com/watch?v=BZrj_7fhfho

 

Primeiros resultados ao se pesquisar o termo “Foro de São Paulo” no Youtube em 09 de junho de 2019. Todos os vídeos apresentam narrativas conspiratórias sobre a entidade.

 

Os quatro vídeos mais visualizados ao se pesquisar o termo “Adélio Bispo” no Youtube em 09 de junho de 2019. Todos os vídeos apresentam narrativas e informações de teor conspiratório sobre o atentado a faca sofrido pelo então candidato Jair Bolsonaro.

 

A questão é que, ao contrário de veículos de comunicação e grupos editorias, o produto do YouTube, bem como de outras plataformas, não é informação, mas conteúdo. Não interessa a elas se o que está sendo divulgado é verdadeiro, controverso ou falso, mas que seja difundido, de modo a produzir, assim, dados sobre o comportamento monitorado de consumo de pessoas usuárias. Conforme Bogost (2019): “Como as pessoas reais estão gostando e compartilhando, todo esse conteúdo é real. Nada disso é falso. Algumas são mentiras, muitas são estúpidas e muitas são prejudiciais. Mas nada disso é falso”.

Dito de outra forma, os sistemas de recomendação e a organização do visível dessas plataformas não foram projetados com o objetivo de informar as pessoas, mas tem como seu principal objetivo capturar as pessoas usuárias, as mantendo consumindo seus conteúdos pelo maior tempo possível (sobre isso, ver no meu #Dobras anterior a noção de virada captológica). Ainda: os casos problemáticos e exemplos citados não demonstram falhas das plataformas, ao contrário, revelam que elas estão funcionando perfeitamente de acordo para o que foram planejadas.

Neste sentido, entra o que chamo de modelo de negócios paranoide das plataformas. Em uma entrevista de 2017 para o site The Verge, um executivo do YouTube afirmou que o novo algoritmo do serviço de compartilhamento de vídeo era mais eficaz em atrair e reter usuários na plataforma por conseguir identificar “relações adjacentes” entre vídeos que um ser humano nunca seria capaz de identificar. Retomando, assim, uma das características de teorias conspiratórias exploradas na introdução, seriam os algoritmos de recomendação bons em reconhecer padrões e regularidades, mas também veriam sentido e significado onde não há?

Segundo Dan McQuillan (2016), os sistemas algoritmicos são baseados em encontrar associações e conexões em dados aparentemente aleatórios. Com uma interpretação obscura em que não há margens para negociações externas ou contraprovas, e que apenas se alimentam de dados previamente disponíveis ou de seus próprios resultados, o autor vai apontar que sistemas algorítmicos são condicionados a encontrar padrões mesmo onde esses padrões não possuam significado direto ou sejam apenas coincidências.

Assim, como a crença em teorias da conspiração reflete um método sistemático de processamento de informação, que enseja uma visão de mundo geral capaz de explicar os eventos, uma outra aproximação que podemos fazer entre sistemas de recomendação e teorias da conspiração é sua pretensão de serem “infalseáveis”. São métodos de organização da realidade em que erros, lacunas e incoerências não significam equívocos e falhas e, portanto, a necessidade de abandono ou revisão das perspectivas interpretativas, mas elementos indiciários que reforçam a aplicabilidade dessas mesmas perspectivas. No caso das conspirações, estes erros, lacunas e incoerências são percebidos indicativos da intencionalidade e de complôs de agentes em ocultar e mascaras a suposta verdade por detrás de um evento. Enquanto nos sistemas de recomendação, imprecisões são outros conjuntos de dados que em tempo quase presente servem como resultados de experimentações para calibrar a sua metodologia.

Os limites da abordagem neopositivista e neobehavioristas de formas de engajamento e da produção de conhecimento sobre os sujeitos podem ser rapidamente apontados, mas isso não diminui as implicações econômicas, politicas e de produção de subjetividades. Ou seja, assim como a questão principal sobre teorias da conspiração não e tanto se são verdadeiras ou falsas, se possuem lastro na realidade dos fatos, também os modelos epistemológicos de sujeito que são operados pelas plataformas não devem ser tratados como boa ou má ciência, mas a partir do que produzem.

O mais grave é que em um ecossistema informativo cada vez mais opaco, concentrado e oligopolizado, as empresas e suas plataformas tendem a construir um ambiente total que condicionam as possibilidades pelas quais as características comportamentais, relacionais e emocionais são expressadas, avaliadas e mobilizadas e as trocas comunicacionais e os modos de ser político, social e subjetivo podem ser desenvolvidos. É preciso, assim, endereçar o problema não como questões pontuais das plataformas ou de características cognitivas e comportamentais de indivíduos, mas antes as bases teóricas de produção de entendimento dos sujeitos combinadas com uma infraestrutura informacional que torna a vida apartada de ferramentas de algumas poucas empresas uma tarefa quase impossível.

Referências

BOGOST, Ian. Facebook’s Dystopian Definition of ‘Fake’. The Atlantic. 28 mai. 2019. Disponível em: https://www.theatlantic.com/technology/archive/2019/05/why-pelosi-video-isnt-fake-facebook/590335/. Acessado em: 08 de junho de 2019.

GILLESPIE, Tarleton. The politics of ‘platforms’. New Media & Society, v. 12, n. 3, p. 347–364, 2010.______. Custodians of the Internet: Platforms, Content Moderation, and the Hidden Decisions That Shape Social Media. Yale University Press, 2018.

HELMOND, Anne. The platformization of the Web: Making Web data platform ready. Social Media + Society, v. 1, n. 2, p. 1–11 , 2015.

HOFSTADTER, Richard: ‘The Paranoid Style in American Politics’, in The Paranoid Style in American Politics and Other Essays. Cambridge: Havard Univesity Press, 1996.

JOLLEY, D., DOUGLAS, K. M., & SUTTON, R. M. (2017). Blaming a few bad apples to save a threatened barrel: The system-justifying function of conspiracy theories. Political Psychology, 39(2), 465-478. Disponível em: http://dx.doi.org/10.1111/pops.12404. Acessado em: 09 de junho de 2019.

MCQUILLAN, Dan. “Algorithmic paranoia and the convivial alternative”. Big Data & Society, 3(2), 2016. Disponível em: http://journals.sagepub.com/doi/abs/10.1177/2053951716671340. Acessado em: 13 de junho de 2017.

PECINI, André. Da plataformização da web à sociedade de plataforma: impacto da mediação digital na sociabilidade e subjetividade. VI ComCult, Universidade Paulista , Campus Paraíso, São Paulo – Brasil, 08 a 09 de novembro de 2018. Disponível em: http://www.comcult.cisc.org.br/wp-content/uploads/2019/05/GT8_Andre%CC%81-Pecini-UFRJ.pdf. Acessado em: 03 de maio de 2019.

REZENDE, A. T., SILVA, F. M. S. M., RIBEIRO, M. G. C., LOURETO, G. D. L., SILVA NETA, O. F., & GOUVEIA, V. V. (2019). Teorias da conspiração: significados em contexto brasileiro. Estudos de Psicologia (Campinas), 36, e180010. Disponível em: http://dx.doi.org/10.1590/1982-0275201936e180010. Acessado em: 09 de junho de 2019.

SEAVER, Nick. Captivating algorithms: recommender systems as traps. Journal of Material Culture, August, 2018.

VAN DIJCK, Jose; POELL, Thomas; DE WAAL, Martijn. The Platform Society: Public Values in a Connective World. Oxford: Oxford University Press, 2018.