#Dobras 34 // Os algoritmos são boys lixo. Ou: não se apaixone pela primeira plataforma que aparecer
13 de junho de 2019
Por Paulo Faltay*
Esses dias vi este tweet mostrando como acessar as preferências de anúncio do seu perfil no Instagram. Além de explicar como encontrar a ferramenta, o tweet tinha outras duas diretrizes: ria de como os resultados são sem noção; compartilhe os resultados mais ridículos. Cumpri. Mas compartilhei o meu resultado, abaixo, nos stories do próprio Instagram. Realmente não me reconheci propriamente ali, mas, entre respostas curiosas e surpresas, me chamou atenção que um atual e um ex-crush referendaram a acuidade dos resultados.
Bom, algoritmos e parceiros afetivos são entidades bem diferentes, mas, como nos mostra o filme Her, eles compartilham de uma mesma promessa: estão sempre prometendo nos conhecer bem, não raro melhor que nós mesmos. Mas, cuidado, todo esse apreço e encanto das plataformas pelos nossos interesses e a comodidade e compromisso na relação são ilusórios: como bons boys lixo, os algoritmos só querem se aproveitar de você.
Se não é amor, é mais do que cilada: é uma armadilha, como argumenta Nick Seaver (2018). Do campo da antropologia, o autor busca nos estudos da área sobre armadilhas para animais uma analogia para examinar os sistemas de recomendação automatizados. Ao traçar esse paralelo, Seaver defende que a organização algorítmica de conteúdo em plataformas digitais se configura enquanto armadilhas persuasivas com o objetivo de manter as pessoas usuárias o máximo de tempo conectadas.
A metáfora é convocada para demonstrar o que o autor defende como a mudança de um paradigma preditivo para um paradigma da “captura” em sistemas de recomendação de plataformas como Spotify e Netflix. Enquanto no primeiro “um sistema de recomendação prevê como os usuários avaliarão os itens, e é julgado pela precisão de suas previsões”, tendo como contraprova de acerto e de satisfação a avaliação explícita das pessoas usuárias (um like ou x estrelas, por exemplo), o segundo tem como premissa que “ser preciso não é suficiente” (McNee; Riedl; Konstan; 2006) e que a eficiência de um sistema de recomendação é medida pela capacidade em capturar a atenção e produzir o engajamento das pessoas usuárias (Seaver, 2018).
Este movimento que Seaver denomina de virada captológica (captological turn) não implica apenas uma mudança no funcionamento desses sistemas, mas também em um deslocamento de como são percebidos e operados a satisfação e o desejo das pessoas, ou mais profundamente a própria concepção de conhecimento sobre o sujeito. As plataformas de recomendação e de sociabilização, amplio o escopo de Seaver, passam a privilegiar não mais formas explícitas de avaliação – classificações, comentários, compartilhamentos – para valorizar como evidências mais verdadeiras dos padrões, juízos e prazeres das pessoas métricas implícitas – como por exemplo o tempo médio gasto em determinados tipos de posts, a pausa em um vídeo, pular uma música recomendada ou um story etc., a partir do monitoramento intermitente do comportamento online.
Assim, a direção da visada dos algoritmos passa a mirar menos à produção de conhecimento aprofundado do indivíduo por meio de métodos de descoberta e detecção fidedignos de traços da personalidade, daí o estranhamento compartilhado por alguns amigos do engano em algumas categorias das preferências de anúncios deles no Instagram. Alguns relataram ter entre os primeiros resultados personagens de Game of Thrones, apesar de nunca terem a assistido. Como isso aconteceu? Bom, não dá pra saber ao certo, mas uma pista é o fato de que, fenômeno da cultura pop, a série foi um dos assuntos mais comentados nas redes nas últimas semanas, tendo uma enorme capacidade de mobilização e engajamento.
É justamente nestas “virtudes” – mobilização e engajamento – que a virada captológica deposita suas esperanças: o contínuo desenvolvimento de interfaces e campos de interação baseadas em métodos e táticas do design, da arquitetura da informação e da economia comportamental para manter as pessoas engajadas e enganchadas nos serviços, a fim de otimizar o direcionamento de conteúdos publicitários e transformar a pessoa em usuária constante. (A relação entre a economia comportamental e plataformas digitais, o entendimento de sujeitos como “previsivelmente irracionais” e a noção de “arquitetura de decisões” são trabalhadas mais detalhadamente neste #Dobras, assinado pela Anna Bentes.
Eu diria mais: devido às infraestruturas sociotécnicas do ecossistema informativo cada vez mais opacas, concentradas e oligopolizadas, as ferramentas e metodologias que mobilizam a conexão entre os campos da psicologia, da comunicação e da tecnologia podem acabar por redefinir e condicionar as possibilidades pelas quais as características comportamentais, relacionais e emocionais são expressadas, avaliadas e mobilizadas. Ou seja, se os algoritmos das plataformas, assim como boys lixo, se relacionam de maneira utilitária, faço um paralelo: temos com as redes sociais um relacionamento tóxico.
Ou seja, como um boy lixo, o interesse dos algoritmos em cuidar de você, oferecer o que você gosta esconde uma relação puramente utilitária: ele constrói uma forma de explorar as vulnerabilidades cognitivas e emocionais dos usuários, a fim de influenciar e persuadir suas escolhas e comportamentos: clicar em anúncios ou transformar uma pessoa usuária constante ou pagante.
Essas plataformas tentam nos convencer que são ambientes que atendem às nossas necessidades, estimulando nosso uso constante e contínuo. Mas essa oferta de respostas quase totais às nossas angústias subjetivas e de sociabilidade depende de uma conectividade permanente, uma aderência atencional à procura de suprir tonalidades de ansiedades e curiosidades sociais e pessoais. Nos conectamos para saber o que está acontecendo ou o que outras pessoas estão fazendo, para indagar se alguém está falando conosco ou construir laços de afinidade. Jogamos com o paradoxal medo da superexposição ou má exposição ou da invisibilidade.
Os algoritmos extraem esses dados comportamentais e sugerem, na troca dessa relação utilitarista, um senso de prestígio. Seja pela construção de autoimagem, quanto também nessa delegação aos processos automatizados de produção de traços subjetivos. Há um reforço narcisístico e de auto-engrandecimento, como se dissessem: “você é tão importante que é o centro de organização desse mundo visível e informacional”, “estamos sempre tentando te agradar”. Em troca, fornecemos informações úteis para métodos que procuram explorar comercialmente as vulnerabilidades emocionais. Sim, tem muito de um relacionamento tóxico.
Com efeito, Tristan Harris nesse texto aqui elenca dez truques tecnológicos para influenciar comportamentos e escolhas das pessoas em plataformas digitais, no que ele chama de forma sensacionalista como “sequestro da mente”. Harris trabalhou na Apple e como designer ético (não sei bem o que isso significa) no Google e chegou a iniciar um mestrado no Stanford Persuasive Technology Lab, coordenado por B.J. Fogg, a pessoa que cunhou o termo “captologia”. Atualmente dedica-se a alertar para os efeitos nocivos da tecnologia e da economia da atenção e foi co-fundador do Center for Humane Technology e do movimento Time Well Spent. Talvez as tintas carregadas de Harris, “sequestro de mente”, sejam o indicativo de desilusões amorosas.
Seaver é perspicaz em apontar que críticas como as de Harris parecem endereçar o problema de maneira míope, como se fossem questões pontuais das plataformas e não as bases teóricas behavioristas combinadas com uma infraestrutura informacional que torna a vida apartada dessas ferramentas uma tarefa quase impossível.
Se há uma declaração de dia dos namorados às plataformas, eu só consigo pensar nessa da Hannah Arendt (1999): “o problema das modernas teorias do behaviorismo não é que estejam erradas, mas sim que podem vir a tornarem-se verdadeiras, que realmente constituem as melhores conceituações possíveis de certas tendências óbvias da sociedade moderna. É perfeitamente possível que a era moderna venha a terminar na passividade mais mortal e estéril que a história jamais conheceu” (pp. 335-336)”.
//
Referências
ARENDT, Hannah. A condição humana. Rio de Janeiro: Forense Universitária, 1999.
MCNEE, Sean M., RIEDLl, John; KONSTAN, Joseph A. Being Accurate Is Not Enough: How Accuracy Metrics Have Hurt Recommender Systems. In CHI’06 Extended Abstracts on Human Factors in Computing Systems, 1097–1101. ACM, 2006. Disponível el: http://dl.acm.org/citation.cfm?id=1125659.
SEAVER, Nick. Captivating algorithms: recommender systems as traps. Journal of Material Culture, August, 2018.
//
*Pesquisador do MediaLab.UFRJ, Paulo Faltay é doutorando em Comunicação e Cultura pela ECO/UFRJ.
Esse texto faz parte do projeto ECONOMIA PSÍQUICA DOS ALGORITMOS: RACIONALIDADE, SUBJETIVIDADE E CONDUTA EM PLATAFORMAS DIGITAIS, coordenado pela profª Fernanda Bruno, com a apoio do CNPq.