Algoritmo da felicidade

15 de março de 2015
Originalmente publicado na Revista DR nº1
Por Fernanda Bruno
A felicidade, sabemos, é uma armadilha. Prometida, doada, vendida, revelada, conquistada, sob prescrição médica, entregue a domicílio, de volta em três dias, em vida ou após a morte, ela é a isca sempre relançada a fiéis, consumidores, pacientes, enamorados, trabalhadores, intelectuais, espectadores, internautas etc. “Parece-me que eu estaria sempre bem aí onde não estou” (Baudelaire). O Facebook não poderia estar fora dessa. E nos apresenta, sem trair a sua duvidosa reputação, a sua versão da felicidade.   Em meados de 2014, veio a público um controverso experimento realizado pela rede social e amplamente contestado por toda parte na web, de sites e colunas especializadas de grandes jornais a blogs e postagens no próprio Facebook e outras redes sociais. O experimento consistiu em manipular, ao longo de uma semana, o feed de notícias de quase 700 mil usuários, sem seu conhecimento, dividindo-os em dois grupos, diferenciados pelo tipo de ‘conteúdo emocional’ visualizado. Um dos grupos recebeu em seu feed um filtro que reduzia os conteúdos emocionalmente positivos e o outro teve redução dos conteúdos emocionalmente negativos. Deste modo, o primeiro visualizou mais conteúdos negativos e o segundo mais conteúdos positivos (tristes e felizes, respectivamente, segundo os parâmetros do experimento) . O propósito alegado era saber se o humor ou estado emocional desses grupos seria ‘contaminado’ pelo conteúdo visualizado no feed. Para tanto, as atualizações de status desses mesmos usuários foram monitoradas.   Os resultados do experimento foram publicados na revista científica Proceedings of the National Academy Sciences, sob o título “Evidência experimental de contágio emocional em escala massiva através de redes sociais”[1]. Segundo os autores do artigo, a hipótese do contágio emocional teria sido confirmada pelo experimento. Isto é: os usuários reproduziram, em suas atualizações de status, o estado emocional preponderante em seus feeds: tristes ou felizes, conforme os  grupos. Vale dizer que o maior impacto do experimento consistiu no tamanho da amostra, supostamente a maior da história dos experimentos psicológicos, e não tanto nos efeitos mensurados, considerados estatisticamente baixos. Contudo, o que interessa discutir aqui não é a validade científica do experimento, mas sim o que ele nos revela sobre o Facebook e o controle algorítmico que pretende exercer sobre nossos afetos e nossa atenção.   A controvérsia em torno do experimento envolveu, em linhas gerais, dois tipos de reação: aquela que denunciava uma falha na observação do código de ética por parte dos cientistas que participaram do experimento e aquela que procurava mostrar a falta de transparência e escrúpulos  do Facebook com os seus usuários. O foco, em ambos os casos,  era a manipulação do conteúdo do feed de notícias dos usuários sem o seu devido conhecimento e consentimento. No caso da pesquisa científica com humanos, tal prática é eticamente condenada, uma vez que o consentimento informado seria claramente necessário no caso do experimento. No caso de empresas como o Facebook, o problema ético seria mais vago, uma vez que não há regulação precisa a este respeito e, do ponto de vista jurídico, a prática seria aceitável, uma vez que os termos de uso da rede social, que todos nós aceitamos sem ler ao ingressar nela, prevê o uso de nossos perfis e dados para pesquisa e outros fins[2].   As duas críticas são obviamente pertinentes e podem se desdobrar em muitas questões relevantes sobre as relações complexas entre a ciência, o mercado, o marketing e os investimentos afetivos, cognitivos e subjetivos nas redes sociais e nos atrativos científicos e monetários do Big Data. De algum modo, contudo, parte significativa do debate acerca do experimento traçava uma linha demasiadamente forte entre a prática científica e a prática empresarial, sob o argumento de que, uma vez ingressando no território da ciência, o cuidado e os limites éticos não poderiam ser franqueados. Ora, há pelo menos três problemas neste argumento: a) supõe que, se estamos fazendo negócios, não precisamos levar tão a sério os limites éticos de nossas ações; b) faz parecer que a ciência seria o domínio da segurança e da transparência ética, o que é no mínimo controverso; c) aposta numa separação muito nítida entre esses dois domínios – a prática científica e a prática empresarial – o que é cada vez menos evidente em diversos âmbitos, especialmente no campo das pesquisas sobre dados e comportamentos on-line (sejam elas científicas ou mercadológicas).   Ainda que seja importante questionar os problemas éticos envolvidos nas alianças entre o Facebook, os cientistas, suas universidades, laboratórios e a revista acadêmica que publicou o artigo sobre o experimento, o problema é bem mais amplo do que uma falha ética dos cientistas e das instituições envolvidas. Voltando ao nosso foco de interesse, o experimento e toda a controvérsia que ele gerou é uma ocasião para compreendermos o próprio Laboratório-Facebook.   Um aspecto relatado no artigo, ainda que de modo secundário, nos aproxima do que interessa: além de confirmada a hipótese do contágio, notou-se que os usuários expostos a ‘notícias’ com conteúdo emocional são mais ativos e engajados na rede social. O Facebook, ao que parece, deseja saber, através desse e outros experimentos, o que torna seus usuários mais atentos e ativos, o que os faz voltar à rede mais e mais vezes e, preferivelmente, jamais sair dela. As declarações da empresa na ocasião dos calorosos debates em torno do experimento deixam clara esta motivação:   Nós sentimos que era importante investigar a preocupação corrente de que a visualização de amigos postando conteúdos positivos leva pessoas a se sentirem mal ou a sair do Facebook. Ao mesmo tempo, estávamos preocupados com o fato de que a exposição à negatividade dos amigos poderia levar as pessoas a evitar visitar o Facebook. Nós não declaramos claramente as nossas motivações no artigo.[3]   Pesquisas anteriores, mencionadas no artigo, indicavam que a exposição à felicidade dos outros nas redes sociais on-line produziria estados depressivos nos usuários que, por efeito de comparação, sentiriam-se “sozinhos juntos” (alone together[4]). A direção do Facebook temia que a alegria ou felicidade de tantos gerasse a tristeza ou infelicidade de outros montes de usuários; temia que estes, ao se sentirem tristes, indignados, irritados ou chateados, se desconectassem da rede ou não voltassem com tanta frequência. Também temia, por outro lado, como declarou Adam Kramer, pesquisador do Facebook e co-autor do artigo, que a visualização de conteúdos emocionalmente negativos levasse os usuários a afastarem-se da rede social.  
[1] Adam D. I. Kramer, Jamie E. Guillory e Jeffrey T. Hancock (2014). Disponível em http://www.pnas.org/content/111/24/8788.full 
[2] Cf. https://www.facebook.com/about/privacy/update
[3] Cf. http://www.nytimes.com/2014/06/30/technology/facebook-tinkers-with-users-emotions-in-news-feed-experiment-stirring-outcry.html?_r=0
[4] Turkle S (2011). Alone Together: Why We Expect More from Technology and Less from Each Other. New York, Basic Books.