#Dobras 17 // Algoritmo da felicidade

Por Fernanda Bruno
* Texto publicado originalmente na Revista DR nº1

A felicidade, sabemos, é uma armadilha. Prometida, doada, vendida, revelada, conquistada, sob prescrição médica, entregue a domicílio, de volta em três dias, em vida ou após a morte, ela é a isca sempre relançada a fiéis, consumidores, pacientes, enamorados, trabalhadores, intelectuais, espectadores, internautas etc. “Parece-me que eu estaria sempre bem aí onde não estou” (Baudelaire). O Facebook não poderia estar fora dessa. E nos apresenta, sem trair a sua duvidosa reputação, a sua versão da felicidade.

Em meados de 2014, veio a público um controverso experimento realizado pela rede social e amplamente contestado por toda parte na web, de sites e colunas especializadas de grandes jornais a blogs e postagens no próprio Facebook e outras redes sociais. O experimento consistiu em manipular, ao longo de uma semana, o feed de notícias de quase 700 mil usuários, sem seu conhecimento, dividindo-os em dois grupos, diferenciados pelo tipo de ‘conteúdo emocional’ visualizado. Um dos grupos recebeu em seu feed um filtro que reduzia os conteúdos emocionalmente positivos e o outro teve redução dos conteúdos emocionalmente negativos. Deste modo, o primeiro visualizou mais conteúdos negativos e o segundo mais conteúdos positivos (tristes e felizes, respectivamente, segundo os parâmetros do experimento) . O propósito alegado era saber se o humor ou estado emocional desses grupos seria ‘contaminado’ pelo conteúdo visualizado no feed. Para tanto, as atualizações de status desses mesmos usuários foram monitoradas.

Os resultados do experimento foram publicados na revista científica Proceedings of the National Academy Sciences, sob o título “Evidência experimental de contágio emocional em escala massiva através de redes sociais”[1]. Segundo os autores do artigo, a hipótese do contágio emocional teria sido confirmada pelo experimento. Isto é: os usuários reproduziram, em suas atualizações de status, o estado emocional preponderante em seus feeds: tristes ou felizes, conforme os grupos. Vale dizer que o maior impacto do experimento consistiu no tamanho da amostra, supostamente a maior da história dos experimentos psicológicos, e não tanto nos efeitos mensurados, considerados estatisticamente baixos. Contudo, o que interessa discutir aqui não é a validade científica do experimento, mas sim o que ele nos revela sobre o Facebook e o controle algorítmico que pretende exercer sobre nossos afetos e nossa atenção.

A controvérsia em torno do experimento envolveu, em linhas gerais, dois tipos de reação: aquela que denunciava uma falha na observação do código de ética por parte dos cientistas que participaram do experimento e aquela que procurava mostrar a falta de transparência e escrúpulos do Facebook com os seus usuários. O foco, em ambos os casos, era a manipulação do conteúdo do feed de notícias dos usuários sem o seu devido conhecimento e consentimento. No caso da pesquisa científica com humanos, tal prática é eticamente condenada, uma vez que o consentimento informado seria claramente necessário no caso do experimento. No caso de empresas como o Facebook, o problema ético seria mais vago, uma vez que não há regulação precisa a este respeito e, do ponto de vista jurídico, a prática seria aceitável, uma vez que os termos de uso da rede social, que todos nós aceitamos sem ler ao ingressar nela, prevê o uso de nossos perfis e dados para pesquisa e outros fins[2].

As duas críticas são obviamente pertinentes e podem se desdobrar em muitas questões relevantes sobre as relações complexas entre a ciência, o mercado, o marketing e os investimentos afetivos, cognitivos e subjetivos nas redes sociais e nos atrativos científicos e monetários do Big Data. De algum modo, contudo, parte significativa do debate acerca do experimento traçava uma linha demasiadamente forte entre a prática científica e a prática empresarial, sob o argumento de que, uma vez ingressando no território da ciência, o cuidado e os limites éticos não poderiam ser franqueados. Ora, há pelo menos três problemas neste argumento: a) supõe que, se estamos fazendo negócios, não precisamos levar tão a sério os limites éticos de nossas ações; b) faz parecer que a ciência seria o domínio da segurança e da transparência ética, o que é no mínimo controverso; c) aposta numa separação muito nítida entre esses dois domínios – a prática científica e a prática empresarial – o que é cada vez menos evidente em diversos âmbitos, especialmente no campo das pesquisas sobre dados e comportamentos on-line (sejam elas científicas ou mercadológicas).

Ainda que seja importante questionar os problemas éticos envolvidos nas alianças entre o Facebook, os cientistas, suas universidades, laboratórios e a revista acadêmica que publicou o artigo sobre o experimento, o problema é bem mais amplo do que uma falha ética dos cientistas e das instituições envolvidas. Voltando ao nosso foco de interesse, o experimento e toda a controvérsia que ele gerou é uma ocasião para compreendermos o próprio Laboratório-Facebook.

Um aspecto relatado no artigo, ainda que de modo secundário, nos aproxima do que interessa: além de confirmada a hipótese do contágio, notou-se que os usuários expostos a ‘notícias’ com conteúdo emocional são mais ativos e engajados na rede social. O Facebook, ao que parece, deseja saber, através desse e outros experimentos, o que torna seus usuários mais atentos e ativos, o que os faz voltar à rede mais e mais vezes e, preferivelmente, jamais sair dela. As declarações da empresa na ocasião dos calorosos debates em torno do experimento deixam clara esta motivação:
Nós sentimos que era importante investigar a preocupação corrente de que a visualização de amigos postando conteúdos positivos leva pessoas a se sentirem mal ou a sair do Facebook. Ao mesmo tempo, estávamos preocupados com o fato de que a exposição à negatividade dos amigos poderia levar as pessoas a evitar visitar o Facebook. Nós não declaramos claramente as nossas motivações no artigo.[3]

Pesquisas anteriores, mencionadas no artigo, indicavam que a exposição à felicidade dos outros nas redes sociais on-line produziria estados depressivos nos usuários que, por efeito de comparação, sentiriam-se “sozinhos juntos” (alone together[4]). A direção do Facebook temia que a alegria ou felicidade de tantos gerasse a tristeza ou infelicidade de outros montes de usuários; temia que estes, ao se sentirem tristes, indignados, irritados ou chateados, se desconectassem da rede ou não voltassem com tanta frequência. Também temia, por outro lado, como declarou Adam Kramer, pesquisador do Facebook e co-autor do artigo, que a visualização de conteúdos emocionalmente negativos levasse os usuários a afastarem-se da rede social.

Para a felicidade de todos, os resultados do experimento recusaram a tese da pesquisa mencionada e mostraram que o engajamento e a atividade na rede, bem como o contágio emocional, valiam tanto para conteúdos negativos quanto positivos. Havendo emoção, seja ela positiva ou negativa, os usuários mantêm-se ativos, atentos, engajados, conectados. Todos podemos ficar tranquilos. Afinal, sugere o Sr. Kramer, por que um experimento que objetiva, no fim das contas, assegurar a felicidade e o bom humor dos usuários, gerou tanta reação negativa? Nas suas palavras: “In hindsight, the research benefits of the paper may not have justified all of this anxiety.”[5]

O Sr. Kramer sugere que, uma vez esclarecido que o experimento visava o nosso bem e a nossa felicidade, o problema estaria resolvido. Entretanto, é exatamente aí que se expõe o maior problema: no próprio fato de o Facebook desejar nos fazer felizes. Este é o ponto a questionar. Grande parte das críticas ao experimento, muitas bastante contundentes, não tocam neste ponto. Parecem supor que não haveria maiores problemas em jogo se o consentimento informado tivesse sido solicitado. O problema, contudo, não para aí e tem um alcance muito maior do que o experimento tomado isoladamente. De fato, o experimento serve para abrir a caixa-preta do Facebook, ainda que timidamente, e explicitar não um feito extraordinário ou uma situação de exceção, mas o pão nosso de cada dia nesta rede social. Todos sabem, ou deveriam saber, que é procedimento padrão do Facebook filtrar nosso feed de notícias de modo a visualizarmos, em média, entre 1.500 itens possíveis, apenas 300, escolhidos segundo critérios absolutamente obscuros. Os usuários não foram cobaias por uma semana apenas. O Facebook é um laboratório que funciona ininterruptamente e os seus experimentos operam cotidianamente e em cascata, levando em conta cada curtida, cada clique, cada compartilhamento, cada palavra que digitamos e mesmo aquelas que apagamos.[6] Não podemos dizer que é um laboratório a céu aberto porque apenas as cobaias, ou sujeitos (para usarmos a linguagem cientificamente correta da pesquisa experimental aplicada a humanos) estão expostos. Os instrumentos, os algoritmos, os critérios, as variáveis, os propósitos, as bases de dados estão confinadas na caixa-preta, mas interferem diretamente em toda paisagem informacional, afetiva, cognitiva e política de nossas ações e conexões dentro e parcialmente fora do Facebook. Esta situação, extremamente assimétrica, já é um imenso problema, e o fato de estar prevista nos termos de uso que aceitamos voluntariamente não o torna menor. O experimento nos ajuda a perceber que o laboratório está em toda parte e ultrapassa os limites da pesquisa científica e suas regulamentações. Mostra que uma das astúcias do Facebook (e inúmeras outras empresas do big data) é explorar essas zonas de incerteza entre o voluntário (aceitamos os termos) e o involuntário (não sabemos os critérios nem os fins dos termos que aceitamos); o comercial (o Facebook é uma empresa, logo, não devemos exigir dela os códigos de conduta que se aplicam à ciência) e o científico (os serviços prestados pela empresa dependem de experimentos científicos para se aprimorar e a ciência depende do Facebook para ter dados ao mesmo tempo robustos e qualitativamente expressivos); a manipulação e o consentimento; a vida ordinária e o laboratório; a máxima exposição (dos usuários) e o segredo (das regras e critérios da empresa) etc.

Nota-se facilmente os inúmeros problemas em jogo, mas retomemos o nosso ponto de partida e a uma das principais motivações do experimento que nos trouxe até aqui. A felicidade algorítmica que o Facebook pretende nos oferecer. Este talvez seja o elemento mais ‘escandaloso’ de toda essa história. Importante dizer que o problema não é a de uma suposta falsa felicidade ou das verdadeiras intenções do Facebook, que seriam outras, voltadas para o crescimento exponencial de sua moeda. Estas constatações podem fazer supor que haveria um bom modo de o Facebook nos fazer felizes, o que mais uma vez esconde o problema. Partamos do princípio, colocado logo na abertura deste texto, de que toda oferta de felicidade é um engodo e tentemos entender o modo próprio de o Facebook fazer isso, o que nos ajuda a compreender parte da nossa dinâmica afetiva e cognitiva nas redes sociais online.

Vimos que o importante no Laboratório-Facebook é manter seus sujeitos maximamente ativos, engajados, conectados. Todos os experimentos e aprimorações dos serviços, aí incluído o que vemos em nosso feed e o modo como nossas atualizações de status são vistas pelos nossos amigos, procuram modular nossa atenção e nossos afetos de modo a garantir mais dedicação à rede social. É muito fácil perceber, por exemplo, que usuários muito ativos e dedicados são ‘recompensados’ com mais visualizações e, consequentemente, mais compartilhamentos e curtidas, o que por sua vez alimenta a sua atividade. Qualquer um que fizer a experiência de ficar fora da rede um tempo razoável perceberá, no seu retorno, uma queda nas curtidas bem como notará com estranheza o seu feed, que te parecerá pouco familiar. Não se preocupe, não há nada de errado com você, mas o algoritmo da felicidade pune (ou, na melhor das hipóteses, fica fora de forma) aqueles que não o alimentam como ele deseja. O investimento do Facebook em promover estados afetivos – seja ele a felicidade ou cargas emocionais fortes – que aumentem o engajamento dos usuários torna ainda mais evidente algo bastante óbvio e já sabido que é o primado do compartilhamento. O que importa não é a felicidade ou outro estado emocional, mas qualquer motor que implusione o fluxo da produção e circulação de informações sobre nossos modos de vida, nossos humores, desejos, e que formam a mina de que se alimentam essas corporações. Se a felicidade aumenta a atividade, a atenção e o engajamento na rede, então, que se promova a felicidade, pois com ela sobe também o volume, a captura, a mineração e todas as transações comerciais, políticas, cognitivas com os nossos dados. Isso por sua vez alimenta mais e mais pesquisas e testes no laboratório e assim tudo vai bem.

Só não vale ser feliz sem compartilhar! E esta não é apenas a perspectiva do Facebook; todos sabemos que ela vale também para cada um de nós, em maior ou menor medida, e que nossos investimentos afetivos nesta rede social são modulados também por isso, ainda que, claro, não se esgote aí. E pouco importa que as emoções compartilhadas sejam verídicas, falsas, editadas, selecionadas. Não é disso que se trata, mas sim de perceber este modo sutil de controle, exemplar do capitalismo contemporâneo, que se alimenta de nossos afetos, nosso ‘engajamento’ emocional e cognitivo, nossa ‘devoção’.

Lembremos que os nexos entre o poder e a gestão ou capitalização dos afetos e da felicidade não são um privilégio do Facebook. Estes nexos têm uma longa história no Ocidente, do poder pastoral às indústrias do consumo, da saúde física e mental, do espetáculo e as mais recentes formas da felicidade tecnologicamente assistida, passando pela grande mídia, a publicidade, as redes sociais etc. Se tomarmos um exemplo mais remoto, o poder pastoral, lembramos que os investimentos na relação entre o exercício do poder e a gestão da felicidade estavam atrelados, como propõe Foucault, a práticas confessionais e a relatos sobre a vida íntima, endereçados ao pastor, que dirigia a consciência e a culpa dos fiéis. Tudo isso passava por um forte, e por vezes penoso, trabalho que o indivíduo deveria fazer sobre si. Agora, os algoritmos do Facebook pretendem gerir a felicidade e as emoções sem que os indivíduos em questão sequer tomem conhecimento disso. O controle algorítmico da felicidade importa pelos seus resultados: mais e mais compartilhamentos, mais e mais dados, mais e mais perfis, mais e mais atividade e conexão em modo non stop. Trata-se, para usar uma expressão do futebol, de uma felicidade de resultados.

Esse controle algorítmico, especialmente no Facebook, mobiliza as subjetividades de um modo bastante distinto do poder pastoral, ainda que possa encontrar nele uma linhagem histórica. E esta mobilização está ainda por ser entendida, assim como as resistências a esse controle estão por ser inventadas. Se considerarmos a dimensão laboratorial, seria fundamental reduzir, em diversos níveis, a assimetria que apontamos acima. Mais transparência e abertura dos dados, critérios, parâmetros e algoritmos é fundamental para que este laboratório se torne um espaço de maior autonomia para os usuários. E isso não vale apenas, diga-se, para a pesquisa dita ‘de mercado’, mas também para a pesquisa científica, cujos métodos experimentais merecem ser problematizados de modo a ampliar as margens de negociação com seus sujeitos, como bem propõe Vinciene Despret. O princípio de que os sujeitos, para serem bem conhecidos, devem ignorar ou ser inteiramente excluídos da definição dos parâmetros da pesquisa, vale mais para reforçar as redes de poder da ciência e dos laboratórios-empresa online do que para produzir um conhecimento suficientemente complexo acerca de nós mesmos. Tal revisão dos parâmetros laboratoriais é tão mais urgente quando tal conhecimento modula significativamente o nosso campo de ação individual e coletiva. Esta negociação, contudo, talvez seja demasiadamente utópica. Restaria ainda fabular outras táticas. Aprendemos a driblar e contestar nossos pastores, pais, educadores, médicos e toda sorte de pretensos diretores de consciência. Imaginar uma sabotagem coletiva do controle algorítmico da felicidade no Facebook é uma bela tarefa.

[1] Adam D. I. Kramer, Jamie E. Guillory e Jeffrey T. Hancock (2014). Disponível em http://www.pnas.org/content/111/24/8788.full
[2] Cf. https://www.facebook.com/about/privacy/update
[3] Cf. http://www.nytimes.com/2014/06/30/technology/facebook-tinkers-with-users-emotions-in-news-feed-experiment-stirring-outcry.html?_r=0
[4] Turkle S (2011). Alone Together: Why We Expect More from Technology and Less from Each Other. New York, Basic Books.
[5] Analisando a posteriori, os benefícios do artigo podem não ter justificado toda essa ansiedade.
[6] Cf. http://sauvik.me/system/papers/pdfs/000/000/004/original/self-censorship_on_facebook_cameraready.pdf?1369713003