#DOBRAS 22 // Como seus dados podem estar influenciando seu voto

Por Anna Bentes [1]

“Eu acho que sim, foi um experimento nojento, antiético e nojento. Porque está brincando com um país inteiro. A psicologia de um país inteiro, sem seu consentimento ou conhecimento. E você não apenas está brincando com a psicologia de uma nação inteira, mas você está brincando com a psicologia de uma nação no contexto de um processo democrático. (…) Sim, então [a partir dos dados e perfis psicométricos] saberemos a quais tipos de mensagens você está suscetível incluindo o contexto, os assuntos, os conteúdos, o tom. (…) o que você está suscetível e onde você irá consumir aquilo e quantas vezes precisamos atingi-lo com aquela mensagem para mudar o que você pensa sobre alguma coisa.” – Christopher Wylie em depoimento ao The Guardian [2]

Em março de 2018, as revelações do ex-funcionário da consultora de marketing político Cambridge Analytica, Christopher Wylie expuseram parte da dinâmica envolvida na utilização de nossos dados para influenciar nosso comportamento nas plataformas digitais. Mais especificamente, nosso comportamento eleitoral. De acordo com as matérias publicadas no The Guardian [3] e no New York Times [4], baseadas no depoimento e documentos vazados por Wylie, dados de cerca de 87 milhões de perfis do Facebook foram indevidamente utilizados, sem o conhecimento ou consentimento dos usuários, para direcionar propaganda política em favor de Donald Trump durante as eleições presidenciais americanas de 2016.

Nos relatos ao The Guardian, o whistleblower Wylie se refere ao modo de atuar a Cambridge Analytica como um “experimento” em que se tratava de elaborar “armas psicológicas” para uma “guerra cultural cujo campo de batalha seria a internet (as mídias sociais) e o alvo, cada um de nós”.

Embora o caso do Cambridge Analytica nos revele os meandros do uso de ferramentas tecnológicas voltadas para o âmbito político, o interesse em influenciar o comportamento a partir de ferramentas digitais, hoje, faz parte da própria dinâmica da economia digital. Nossos dados – o tal petróleo da era digital – constituem a matéria-prima para a elaboração de modelos de previsão algorítmicos de comportamento para orientar diferentes tipos de intervenção para influenciar e persuadir as nossas ações. A partir dos nossos rastros do passado, portanto, os algoritmos pretendem antever nosso comportamento futuro para agir não apenas sobre nós, mas também sobre nossos similares. Assim, operando em larga escala, o big data e suas operações algorítmicas extraem valor de nossos dados a partir do conhecimento gerado acerca da correlação entre dados individuais e dados relacionais.

Na equação da economia digital, esses mecanismos estão atrelados ao modelo de publicidade presente nessas plataformas, conhecido como micro-targgeting. Entretanto, mais importante do que do que o modelo de publicidade presente nestas plataformas é a sua promessa e capacidade de prever os comportamentos futuros para, assim, agir sobre eles. Nesse sentido, como aponta Shoshana Zuboff (2016, p.5) sobre a dinâmica desta lógica de acumulacão, os lucros derivam “principalmente, senão inteiramente, de tais mercados para o comportamento futuro”.

Por isso, nesse modelo de negócios das plataformas digitais, nenhuma informação é irrelevante. No entanto, o que o caso do Cambridge Analytica e outros episódios polêmicos envolvendo o uso indevido de dados pessoais nos apontam é para um crescente interesse ainda maior por informações que poderiam revelar certos traços psicológicos dos usuários. Não à toa, para capturar os milhões de dados de perfis do Facebook, a Cambridge Analytica utilizou como “isca” um aplicativo-teste de personalidade disponível na rede social. Baseado no modelo psicométrico aceito mundialmento, o Big Five, o teste classifica a personalidade de acordo com uma estrutura de 5 grandes fatores: extroversão (quão sociável?), neuroticismo (você se aborrece facilmente?), socialização (quão atencioso e cooperativo?), realização (quão perfeccionista você é?) e abertura à experiência (o quão aberto você está para novas experiências?). Ou também conhecido como OCEAN, sigla em inglês para openness to experience, conscientiousness, extraversion, agreebleness e neuroticism.

O amplo interesse, por diferentes partes, na captura e utilização de informações psíquicas e emocionais extraídas de nossos dados nas plataformas digitais alimentam hoje o que Fernanda Bruno (2018) chamou de uma economia psíquica dos algoritmos. Segundo a autora, os dados psicossociais e emocionais não interessam tanto pelo perfil psicológico individual em si, mas sim pela possibilidade de estabelecer correlações entre os perfis psicológicos e os padrões de atividades dos usuários. Isto é, o conhecimento produzido pelos modelos de previsão algoritmos estão menos preocupados em produzir um conhecimento individualizado e unificado sobre a personalidade da cada indivíduo, do que em revelar padrões supra-individuais ou inter-individuais que perimitiriam fazer predições em larga escala. Deste modo, o perfil psicológico individual é, na verdade, utilizado para influenciar e agir sobre sobre o comportamento tanto de um indivíduo específico quanto de seus similares.

E esta dinâmica não é apenas alimentada por dados psicossociais e emocionais, mas o próprio exercício da influência e da persuasão sobre o comportamento, a partir da curadoria algorítmica do visível (Introna, 2016), opera também mobilizando nossa atenção e nossos afetos com conteúdos emocionais. Com base nos perfis psicológicos, portanto, são elaborados tipos de específicos de conteúdos para influenciar certos tipos de comportamento, que podem variar imensamente de acordo com o contexto de interesses. Os tipos de conteúdo podem servir para estimular ou inibir, para mobilizar ou desmobilizar, certas percepções, emoções ou comportamentos.

No arena política-digital que atravessou continentes em eleições internacioanais, as estratégias variaram de acordo com as características de locais. Por exemplo, conforme aponta a pesquisadora Zeynep Tufecki (2017), em 2010, nas eleições intercalares [5] americanas, o Facebook mostrou para uma parte de cerca de 61 milhões de perfis uma mensagem que dizia “Hoje é o dia das eleições”, enquanto para outra parte mostrou uma pequena barra com as fotos dos seus amigos que clicaram na opção “Eu votei”. Nesse caso, as fotos dos amigos eram a principal diferença entre os conteúdos recebidos por cada um dos grupos e, segundo Tufecki, essa única publicação teria levado cerca de 340 mil eleitores a mais para votar. Tal experimento foi repetido em 2012, levando, dessa vez, cerca de 270 mil eleitores a mais para votar.

Ainda, segundo ela, o gerente de mídias de Donald Trump revelou que estavam usando o que seriam “dark posts” no Facebook não para persuadir as pessoas a votarem no candidato, mas para convencê-las a simplesmente não ir votar. No quê consistiriam especificamente estes dark posts? Segundo o matemático Paul-Oliver [6], “trata-se, para uma empresa ou página do Facebook, de produzir uma mensagem para uma população determinada de modo que essa mensagem só seja visível para aquela população. A mensagem não vai aparecer na página. Em um contexto eleitoral, isso significa que certos candidatos podem dirigir a certos indivíduos no Facebook mensagens potencialmente negativas sobre outros candidatos, mas um jornalista, por exemplo, não saberá que isso está ocorrendo porque as mensagens não aparecerão como públicas”. Nesse sentido, os dark posts são conteúdos ultrapersonalizado, criados a partir do perfil psicométrico, que são visíveis apenas para seus alvos.

Assim, com base nos perfis psicométricos, os conteúdos podem variar em detalhes para se ajustar aquilo que o algoritmo infere que os sujeitos estariam mais susceptíveis a se afetar: desde pequenas mudanças nos títulos das mensagens até diferentes cores, tom ou tamanho do texto, legendas, imagens ou vídeos.

No entanto, para estratégias políticas, os dados não somente vão orientar os perfis psicológicos dos eleitores e os conteúdos específicos a serem direcionados a eles, mas vão também orientar o próprio discurso e posicionamento dos políticos. Conforme lembra Alexander Nix, o então CEO executivo da Cambridge Analytica: “Quase toda mensagem que Trump enunciou foi guiada por dados”. [7]

Dentre as estratégias político-digitais para influenciar o comportamento de eleitores utilizadas em diferentes países, está a ampla difusão de fake news [8]. Termo derivado da noção de “pós-verdade” [9] , as fakes news dizem respeito às notícias falsas que circulam pelas plataformas digitais com fortes apelos emocionais. Segundo a definição do Dicionário de Oxford, a pós-verdade é “relativa ou referente a circunstâncias nas quais os fatos objetivos são menos influentes na opinião pública do que as emoções e as crenças pessoais.” Não à toa, em 2016, o termo “pós-verdade” foi eleito a palavra do ano pelo Dicionário de Oxford, pois se popularizou justamente no contexto das eleições americanas e também do referendo britânico sobre a União Europeia (Brexit), ambos casos que contaram com o envolvimento da consultora Cambridge Analytica.

Uma hipótese é que um dos principais efeitos da disseminação de fake news não é apenas a produção de conteúdos falsos, que precisam constantemente ser desmentidos, mas principalmente de um amplo estado de dúvida, incerteza e desconfiança sobre as informações em circulação. Além disso, os conteúdos falsos tendem a ser carregados de apelos emocionais, que desviam a atenção dos usuários de discussões mais importantes – por exemplo, o efetivo debate sobe programas de governo dos candidatos – para discussões, em sua grande maioria, inférteis politicamente, reforçando crenças pessoais e produzindo ainda mais polarização entre os eleitores.

E como toda esta rede econômica, tecnológica, científica e política e está afetando as eleições no Brasil em 2018?

Bem, as controvérsias do cenário brasileiro ainda estão em aberto, mas alguns aspectos saltam aos olhos na conjuntura atual. Ainda no primeiro turno, já era possível perceber a influência de uma plataforma específica nas circulação de informações políticas e de fake news: o WhatsApp [10]. Embora esta plataforma não funcione pelo sistema de recomendações algorítmicas, segundo as revelações publicadas pelo jornal Folha de São Paulo [11] na última quinta-feira, dia 18 de outubro, empresas estariam comprando pacotes de disparos em massa de mensagens contra o PT e em apoio ao candidato Jair Bolsonaro (PSL), utilizando bases de dados do próprio candidato e também outras vendidas por agências de estratégia digital.

Segundo a matéria, entre as empresas que estariam prestando este serviço estão a Havan, Quickmobile, Yacows, Croc Services e SMS Market, com contratos de até 12 milhões de reais. Ainda em apuração pelo TSE, tais disparos em massa poderiam caracterizar uma prática ilegal, uma vez que a legislação eleitoral proíbe a compra de bases de dados de terceiros, permitindo apenas o uso de listas de apoiadores do próprio candidato com números cedidos voluntariamente. De acordo com a investigação publicada pelo jornal, na prestação de contas do candidato do PSL, consta apenas a empresa AM4 Brasil Inteligência Digital que, segundo um dos donos da empresa, mantém apenas grupos de Whatsapp para denúncias de fake news, lista de transmissão e grupos estaduais chamados de comitês de conteúdo.

Entretanto, segundo a apuração da Folha com ex-funcionários e clientes da AM4, ela não se restringe a este tipo de serviço. Uma hipótese levantada pelo jornal é que teriam sido usadas pela campanha do candidato ferramentas para geração automática de números estrangeiros, por sites como o TextNow. Estes números seriam usados para administrar ou participar de grupos, permitindo, assim, escapar dos filtros de spam e das limitações de no máximo 256 membros de cada grupo e do limite de repasse automático para até 20 contatos (pessoas ou grupos) estabelecido pelo próprio aplicativo. Os administradores desses números também utilizariam algoritmos para segmentar os membros dos grupos entre apoiadores, detratores e neutros, para, desta maneira, customizar o tipo de conteúdo que enviam.

De acordo com uma matéria publicada pela BBC News Brasil [12], em 20 de outubro, os números de telefone de milhares de brasileiros para enviar essas mensagens automáticas em massa no WhatsApp podem ter sido coletados no Facebook a partir de empresas que utilizam softwares para a captura automatizada de dados públicos na rede social, serviço este que violaria as regras de uso da plataforma. Depois do ocorrido, o WhatsApp se pronunciou afirmando que estava levando a sério as acusações de irregularidade de uso na plataforma e, como medida, bloqueou cerca de 100 mil contas, incluindo a do filho do candidato à presidência Flavio Bolsonaro [13].

Coincidentemente, em 25 de setembro, logo antes do primeiro turno, o Facebook anunciou ter sofrido um ataque cibernético [14], que poderia ter atingido informações de cerca de 90 milhões de usuários, dando acesso a informações como nome, endereço de e-mail, número de telefone, data de aniversário, gênero, cidade, entre outras informações. Embora ainda não hajam evidências que comprovem uma correlação entre os casos, uma matéria publicada na Carta Capital, no dia 19 de outubro de 2018 [15], levanta uma hipótese nesse sentido:

o hackeamento [no Facebook] aconteceu entre 14 e 25 de setembro. A evolução de Bolsonaro nas pesquisas mostra que ele mudou de patamar depois disso. No Ibope, por exemplo, ele oscilou em torno de 28% entre 11 e 26 de setembro. A partir do dia 1o de outubro, mudou de patamar. Rompeu a barreira dos 30%, alcançou 31% Não foi só isso. Enquanto Bolsonaro subia nas pesquisas, a rejeição de Haddad fazia o mesmo. O petista havia entrada oficialmente na campanha em 11 de setembro, data em que o PT o substituiu na Justiça eleitoral como candidato no lugar de Lula. De 11 a 26 de setembro, a rejeição a Haddad variou entre 23 e 27%. A partir de 1o de outubro, mudou de patamar: chegou a 38%. Nesse período em que Bolsonaro mudou de patamar nas pesquisas e a rejeição a Haddad também, houve as manifestações #elenão. Foi em 29 de setembro. Elas podem ter se revertido a favor do deputado do PSL, mas talvez uma operação na web com dados do Facebook possa ter ajudado.

Acompanharemos os desdobramentos deste caso nas próximas semanas.

Com tudo isso, percebemos uma rede complexa de relações que envolvem questões políticas, científicas, tecnológicas, sociais e subjetivas. Nesse contexto, as engrenagens da economia digital envolvem a criação, como sugere Tufecki (2017), de uma arquitetura da persuasão. Assim, sob a ordem de grandeza do big data e gestão algorítmica, nossos dados estão sendo utilizados, sobretudo, para influenciar e persuadir o nosso comportamento.

Mas, não podemos esquecer também que as inferências probabilísticas dos algoritmos funcionam de forma significativamente opaca e ainda são bastante controversos. O que não significa, de modo algum, ausência de efeitos, ainda mais levando em conta a escala que operam.

Esses mecanismos funcionam testando constantemente diferentes formas de “outputs” para orientar nossa atenção, nossas emoções e nossos comportamentos. Nos submetendo a experimentos constantes, os algoritmos buscam orientar nossa ação, que pode apontar para diferentes direções: pode ser para nos fazer clicar em anúncios de sapatos, mas pode ser também para influenciar seu voto.

Referências:

Bachrach, Y., Kosinski, M., Graepel, T., Kohli, P., & Stillwell, D. (2012, June). Personality and patterns of Facebook usage. In Proceedings of the 4th Annual ACM Web Science Conference (pp. 24-32). ACM.

BRUNO, Fernanda. A economia psíquica dos algoritmos: quando o laboratório é o mundo. NEXO, 12/08/2018. Disponível em: <https://www.nexojornal.com.br/ensaio/2018/A-economia-ps%C3%ADquica-dos-algoritmos-quando-o-laborat%C3%B3rio-%C3%A9-o-mundo > Acesso em 12 de agosto de 2018.

CARDOSO, Bruno. Por que fazer uma sociologia da internet? Sobre o caso do Cambridge Analytica. Disponível em: CARDOSO, Bruno. http://lavits.org/por-que-fazer-uma-sociologia-da-internet-sobre-o-caso-cambridge-analytica-e-facebook/?lang=pt > Acesso em 20 de outubro de 2018.

INTRONA, Lucas. The algorithmic choreography of the impressionable subject. In Algorithmic Cultures: essays on meaning, performance and new technologies (org. Jonathan Roberge & Robert Seyferth). Routledge, 2016.

O’NEIL, Cathy. Weapons of math destruction. Nova York : Crown Publishers, 2016.

PASQUINELLI, Mateo. Um diagrama do capitalismo cognitivo e da exploração da inteligência social geral. 16 de março de 2010. Disponível em:  <http://matteopasquinelli.com/docs/Pasquinelli_PageRank.pdf* traduzido pelo coletivo Vila Vudu> Acesso em 10 de abril de 2018.

TUFECKI, Zeynep. We’re building a dystopia just to make people click on ads.  Palestra proferida no TED Taks, Monterey (California), set. 2017. Disponível em: https://www.ted.com/talks/zeynep_tufekci_we_re_building_a_dystopia_just_to_make_people_click_on_ads?language=pt-br

ZUBOFF, Shoshana. Big Other: Surveillance Capitalism and the Prospects of an Information Civilization. Journal of Information Technology, n. 30, pp.75–89, 2015.

_______. Secrets of Surveillance Capitalism. Publicado em 05 de março de 2016. Disponível em: <http://www.faz.net/aktuell/feuilleton/debatten/the-digital-debate/shoshana-zuboff-secrets- of-surveillance-capitalism-14103616.html?printPagedArticle=true#pageIndex_2  > Acesso em: 4 de abril de 2018.

Notas:

[1] Este texto foi escrito a partir de pesquisas realizadas coletivamente no MediaLab.UFRJ. Está em andamento a produção de uma versão expandida, explorando esses e outros desdobramentos, em formato de artigo  científico em coautoria entre Anna Bentes (pesquisadora do MediaLab.UFRJ), Fernanda Bruno (coordenadora do MediaLab.UFRJ) e Paulo Faltay (pesquisador do MediaLab.UFRJ).

[2] Disponível em:< https://www.youtube.com/watch?v=FXdYSQ6nu-M > Acesso em 20 de outubro de 2018.

[3] Disponível em: <https://www.theguardian.com/news/2018/mar/17/cambridge-analytica-facebook-influence-us-election> Acesso em 17 de março de 2018.

[4] Disponível em: <https://www.nytimes.com/2018/03/17/us/politics/cambridge-analytica-trump-campaign.html> Acesso em 17 de março de 2018.

[5] Eleições intercalares americanas são aquelas realizadas dois anos após cada eleição presidencial, a cada 4 anos, para cadeiras na Câmara dos Representantes e no Senado Americano. Ver mais em: <https://pt.wikipedia.org/wiki/Elei%C3%A7%C3%B5es_de_meio_de_mandato> Acesso em 20 de outubro de 2018.

[6] A fala do matemático foi retirada de um trecho do documentário “Driblando a Democracia”. Disponível em: <https://vimeo.com/295576715 >Acesso em 23 de outubro de 2018.

[7] Disponível em: <https://outraspalavras.net/posts/big-data-toda-democracia-sera-manipulada/> Acesso em 10 de maio de 2017.

[8] Ver mais em: LAZER, David et al. The Science of Fake News, 2018. Disponível em:<www.sciencemag.org/content/359/6380/1094/suppl/DC1>.

[9] Alguns autores vão afirmar (LAZER et al, 2018) que o termo fake News tem sido usado por mais de um século, por exemplo, tendo sido usado em um artigo intitulado “Fake News and the Public”, publicado em 1925 na Harpers. No entanto, o termo se atualizou com as plataformas digitais, popularizando-se recentemente no contexto das eleições americanas em 2016 a partir da noção de pós-verdade.

[10] Disponível em: <https://www.bbc.com/portuguese/brasil-45666742?fbclid=IwAR3u0lyfnomyqnTLpRt0xgNLvgbhE2mvTnJ88lF9ROZDU6eTaEcn4-E_Yvg>

[11] Disponível em: https://www1.folha.uol.com.br/amp/poder/2018/10/empresarios-bancam-campanha-contra-o-pt-pelo-whatsapp.shtml?__twitter_impression=true > Acesso em 18 de outubro de 2018.

[12] Disponível em: <https://www.bbc.com/portuguese/brasil-45910249?SThisFB&fbclid=IwAR0XOXP_m7c_5tRKTVJ8IovqapKSTPDTgw0HwAn5kbXeQo-5vSDmEabom1k>. Acesso em 20 de outubro de 2018.

[13] Disponível em: <https://adage.com/article/digital/whatsapp-bans-100-000-accounts-brazil-election/315341/?utm_source=Digital&utm_medium=feed&utm_campaign=Feed:+AdvertisingAge/Digital> Acesso em 20 de outubro de 2018.

[14] Disponível em: <https://m.facebook.com/help/2687943754764396> Acesso em 20 de outubro de 2018.

[15] Disponível em: <https://www.cartacapital.com.br/politica/as-pistas-do-metodo-201ccambridge-analytica201d-na-campanha-de-bolsonaro> Acesso em 20 de outubro de 2018.