A economia psíquica dos algoritmos: quando o laboratório é o mundo

 

Por Fernanda Bruno, publicado originalmente no NEXO

O capitalismo de dados que se impõe com as redes sociais embaralha as fronteiras entre o laboratório e a vida social, política e subjetiva

 

O recente escândalo envolvendo a consultora Cambridge Analytica e o Facebook revelou não apenas os usos indevidos de nossos dados pessoais para fins eleitorais e econômicos, sem nosso conhecimento e autorização. Ele expôs as engrenagens de um capitalismo de dados cada vez mais feroz, e de um poderoso laboratório que captura, analisa e utiliza as cargas psíquicas e emocionais de nossos dados, com fortes efeitos sociais e políticos.

A Cambridge Analytica utilizou, sem o consentimento das pessoas envolvidas, dados de cerca de 87 milhões de perfis do Facebook para direcionar propaganda política. É significativo que a via de acesso a esses perfis tenha sido um teste de personalidade, chamado thisisyourdigitallife e ofertado como um aplicativo do Facebook. Isso mostra o quanto nossas emoções e traços psíquicos estão na mira dos algoritmos que extraem valor de nossas ações online. Mostra que é preciso compreender a economia psíquica dos algoritmos no capitalismo de dados pessoais.

No que consiste o teste de personalidade que foi a isca mordida por 270 mil pessoas, dando acesso posteriormente, sem que elas soubessem, a 87 milhões de perfis? Simplificadamente, o teste consiste num conjunto de questões baseado numa estrutura psicométrica de cinco fatores (extroversão, neuroticismo, socialização, realização e abertura à experiência) que remetem a dimensões de personalidade. Mas seu verdadeiro papel nesse caso foi ser uma espécie de cavalo de Troia para explorar as correlações entre os perfis psicológicos daqueles que realizaram o teste, seus padrões de atividade no Facebook e os padrões de atividade de milhões de outros usuários que faziam parte de sua rede de amizade. O conhecimento dessas correlações pretende revelar padrões que permitam fazer predições em larga escala. Ou seja, o teste de personalidade que você faz permite prever a personalidade de muitas outras pessoas similares a você.  As pesquisas que inspiraram esse experimento, realizadas no laboratório de psicometria da universidade de Cambridge para o desenvolvimento do aplicativo MyPersonality, utilizado no Facebook entre 2007 e 2012, deixam claro o tipo de conhecimento produzido e suas aplicações. “Podemos fazer previsões relativamente precisas em relação à personalidade de um indivíduo, sendo a Extroversão a mais fácil de prever e a Socialização sendo a mais elusiva. Uma aplicação potencial para o nosso trabalho é a publicidade online e os sistemas de recomendação”.

Segundo outro estudo envolvendo o mesmo laboratório, os algoritmos, uma vez bem alimentados com a economia psíquica de nossos dados, são capazes de prever a personalidade de alguém com mais precisão do que humanos. Baseando-se em likes no Facebook, os algoritmos seriam mais precisos na previsão da personalidade de alguém do que um colega de trabalho (valendo-se de 10 likes), do que um amigo ou companheiro de quarto (70 likes), do que um familiar (150 likes) e mesmo do que esposos/as (300 likes).

As fronteiras entre o laboratório e a vida social, política e subjetiva tornam-se tênues. Estamos diante de um laboratório-mundo intimamente conectado às engrenagens do capitalismo de dados pessoais, onde uma complexa e crescente economia psíquica e emocional nutre algoritmos que pretendem nos conhecer melhor do que nós mesmos, além de fazer previsões e intervenções sobre nossas emoções e condutas. A inquietação cresce quando nos damos conta de que os muros dos tradicionais laboratórios científicos e psicométricos dão lugar a uma caixa preta digital bastante opaca, pouco inteligível para aqueles que são seus “usuários” e suas fontes de conhecimento.

É importante lembrar que esse está longe de ser o único caso em que essa dimensão laboratorial do capitalismo de dados vem à tona. Em 2014 o próprio Facebook conduziu um experimento para mensurar o grau de contágio emocional de postagens, utilizando o perfil de 700 mil pessoas sem o seu consentimento. Uma série de outros experimentos estão em curso. Basta visitar os sites dos principais corretores de dados do mercado internacional (Acxiom, Corelogic, Intelius, Rapleaf e Recorded Future). Basta pensar nos sistemas de recomendação que operam em diversos aplicativos e plataformas que utilizamos. Tais experimentos não se restringem à vida online. Recentemente, a concessionária que opera a Linha 4-Amarela do metrô de São Paulo, anunciou novas “portas interativas” que serão instaladas em algumas estações. Segundo a concessionária, além de permitir a divulgação de campanhas, marcas e produtos, as portas terão uma lente com sensores capazes de reconhecer a presença humana, capturando expressões faciais para análise de emoções.

Sabemos o quanto a alegada precisão das previsões algorítmicas é controversa, mas o fato de tais pesquisas e estratégias estarem sujeitas a muitas falhas e erros não minimiza as nossas inquietações. Os erros não significam, nesse contexto, ausência de efeitos. Além disso, a escala e o ecossistema onde tais previsões operam são bastante tolerantes às falhas. Numa base gigantesca de conteúdos direcionados para centenas de milhões de “alvos”, mesmo uma margem relativamente baixa de acertos já é bastante alta. E num ambiente laboratorial em que os resultados podem ser testados de modo quase ininterrupto, os erros alimentam positiva e rapidamente os algoritmos e suas bases de dados, permitindo revisões relativamente rápidas dos procedimentos e estratégias.

Não é apenas sobre ciência mal aplicada, ou sobre negócios e propagandas, nem só sobre vigilância e privacidade. É sobre fabricação de mundos.

Fernanda Bruno é professora de comunicação e de psicologia da UFRJ e coordenadora do MediaLab.UFRJ e da Rede LAVITS.


Os comentários estão desativados.