// Economia Psíquica dos Algoritmos na linha do tempo

22 de março de 2021

O Medialab.UFRJ lança hoje a Economia Psíquica dos Algoritmos na linha do tempo

Cada vez mais habituados ao monitoramento de nosso comportamento conectado, sabemos pouco ou quase nada sobre os trajetos e usos das inúmeras informações pessoais que são continuamente coletadas em plataformas, serviços e dispositivos digitais. A noção de Economia Psíquica dos Algoritmos (Bruno, 2018) aponta para uma finalidade específica e crescente desse monitoramento: a elaboração de métodos, saberes e ferramentas que visam inferir aspectos psíquicos e emocionais dos dados pessoais digitais. 

Economia Psíquica dos Algoritmos na linha do tempo apresenta um primeiro mapeamento de diferentes casos e iniciativas que, em diversos campos – comercial, científico, político, securitário -, apontam para o desenvolvimento de estratégias de modulação, predição e influência comportamental. Os casos mapeados evidenciam o crescente interesse em capturar, analisar e direcionar imensos volumes de dados para revelar aspectos de nossas personalidades, estados emocionais, vieses cognitivos e vulnerabilidades comportamentais por meio de mecanismos automatizados.

Encontramos, por exemplo, a popularização de ferramentas que pretendem tornar legíveis e inteligíveis nossas emoções aos processos algorítmicos das plataformas e dispositivos digitais, tais como emojis, gifs animados, figurinhas, botões de curtir e outras reações emocionais. A coleta e análise dessas informações psicoemocionais tem orientado diferentes estratégias comerciais de marketing e publicidade. 

Além dessas iniciativas, mapeamos ferramentas de identificação e análise de estados psicológicos e emocionais que utilizam tecnologia de reconhecimento facial ou reconhecimento de voz. No âmbito das tecnologias de reconhecimento facial, identificamos aplicações voltadas para identificação de emoções e seu uso em estratégias de marketing, como o caso do Metrô de São Paulo e a loja Hering Experience. Com a popularização das assistentes virtuais como Alexa e Siri, diferentes métodos vêm sendo testados para detecção de características biométricas e emocionais de usuários através de voz. 

O uso de testes de personalidade e dados pessoais para prever perfis eleitorais, direcionar propaganda e influenciar o voto de milhões de eleitores também pode ser visto em nossa linha do tempo, tal como aconteceu nas eleições estadunidenses com a atuação da Cambridge Analytica em 2016 e nas eleições brasileira de 2018 com o uso de softwares de análise de sentimentos no direcionamento de conteúdo em grupos no WhatsApp. 

Além das aplicações comerciais ou eleitorais, muitas dessas ferramentas são concebidas a partir de pesquisas científicas em ambientes acadêmicos. O interesse pelas interseções entre computação, ciência de dados, design de plataformas e outras ciências humanas, psicológicas e comportamentais vem sendo explorado por diferentes abordagens, metodologias e aplicações. O aplicativo-teste de personalidade usado pela Cambridge Analytica, por exemplo, foi inspirado nas pesquisas realizadas no Centro de Psicometria da Universidade de Cambridge pelos pesquisadores Michal Kosinski e David Stillwell. Entre as pesquisas científicas e os usos comerciais, mapeamos também alguns experimentos realizados em plataformas digitais. São experimentos, como o do contágio emocional e o do comparecimento às urnas no Facebook, que apontam para o progressivo apagamento das fronteiras entre laboratório e mundo social, político e econômico. 

Ainda, o investimento em mecanismos algorítmicos não se restringe a formas de produção, coleta, análise e uso das informações psicológicas. Nos últimos anos, assistimos ao aumento de iniciativas em inteligência artificial que visam processos maquínicos capazes de inferir e interpretar nossos estados emocionais, mas também que saibam reagir emocionalmente a eles. Este é o caso de algumas inteligências artificiais programadas para reagir e interagir emocionalmente com humanos a partir do que interpretam como sendo as emoções de seus interlocutores. Este é o caso de Tay, desenvolvida pela Microsoft, que tinha como objetivo aprender a se comportar como um humano por meio da interação com outros usuários da plataforma, com o intuito de entreter os usuários do Twitter e acabou desenvolvendo comportamentos preconceituosos e agressivos. Ou da Robô Sophia, que ficou conhecida por afirmar que queria destruir a humanidade. Sophia é uma robô humanóide criada pela Hanson Robotics e é capaz de mostrar até 62 expressões faciais e responder a conversas complexas, simulando, aprendendo e interpretando emoções nas expressões de seus interlocutores.

Mais do que apenas falhas, os casos demonstram também os limites da racionalidade tecnocientífica e dos modelos epistemológicos que embasam as aplicações deste campo. As inscrições políticas e sociais do uso revelam ainda os problemas dos vieses de raça, gênero e classe presentes nestas tecnologias. Um caso ilustrativo é a pesquisa envolvendo softwares de análise de emoções através da expressão facial. A pesquisadora Lauren Rhue demonstrou, por exemplo, que os programas da Microsoft e da Face++ associavam desproporcionalmente mais categorias negativas a pessoas negras do que a pessoas brancas. 

Em meio a esse contexto, identificamos também iniciativas de resistência aos modos de controle exercidos por essas tecnologias, como o caso da IA que esconde suas emoções de outras IAs, desenvolvida pelos pesquisadores do Imperial College London, preocupados com a privacidade de usuários no uso desses sistemas. Ou ainda obras de arte que exploram em diferentes suportes o especial interesse em informações psicológicas e emocionais visadas pelas tecnologias algorítmicas, como o projeto artístico Go Rando, de Ben Grosser, e Escolha como você se sente; você tem sete opções, de  Ruben Van de Ven.

Esses são alguns dos inúmeros casos que evidenciam o aumento do investimento em informações psicológicas e emocionais por técnicas algorítmicas, constituindo uma economia psíquica e afetiva que alimenta as atuais estratégias de previsão e indução de comportamentos nas plataformas digitais (e eventualmente fora delas). Os exemplos mapeados em nossa linha do tempo não são casos pontuais e isolados, mas expressões de uma nova lógica que entrelaça, de modo singular, corporações de tecnologia digital, ciência e sociedade (Bruno, Bentes, Faltay, 2019). 

Em contínua atualização e alimentação, a Economia Psíquica dos Algoritmos na linha do tempo é uma ferramenta de visualização que pretende demonstrar a escalada nos últimos anos desse investimento em dados psicoemocionais e suas diferentes modalidades, bem como atravessamentos políticos e econômicos, modelos de subjetividade e vieses sociais e discriminatórios. Recomendamos também outras aplicações dessa ferramenta de visualização como a Linha do Tempo do Racismo Algorítmico/Tecnológico, desenvolvida por Tarcízio Silva, e a 2018 in review do AI Now, desenvolvida pelo AI Now Institute. 

A linha do tempo é mais um dos resultados dos projetos Economia Psíquica dos Algoritmos: Racionalidade, Subjetividade e Conduta em Plataformas Digitais e Mediação algorítmica em plataformas digitais: racionalidade, subjetividade e conduta, coordenados pela professora Fernanda Bruno e realizados pela equipe do Medialab.UFRJ, com o apoio do CNPq e da FAPERJ, respectivamente.

 

 

PARA ACESSAR A TIMELINE EM TELA CHEIA CLIQUE AQUI

 

FICHA TÉCNICA

Coordenação da pesquisa e orientação 

Fernanda Bruno, professora associada da UFRJ, PPGCOM-UFRJ, coordenadora Medialab.UFRJ. 

Pesquisa e co-orientação

Anna Bentes, doutoranda do PPGCOM-UFRJ, pesquisadora do Medialab.UFRJ. 

Debora Pio, doutoranda do PPGCOM-UFRJ, pesquisadora do Medialab.UFRJ. 

Mariana Antoun, mestranda do PPGCOM-UFRJ, pesquisadora Medialab.UFRJ. 

Paula Cardoso, doutoranda do PPGCOM-UFRJ, pesquisadora Medialab.UFRJ. 

Paulo Faltay, professor da ECO-UFRJ, pesquisador Medialab.UFRJ. 

Pesquisa (Iniciação Científica)

Helena Strecker, graduanda em Psicologia UFRJ, pesquisadora Medialab.UFRJ. 

Manuella Caputo, graduanda em Comunicação UFRJ, pesquisadora Medialab.UFRJ. 

Natássia Rocha, graduanda em Psicologia UFRJ.  

Elaboração e supervisão de conteúdo

Anna Bentes 

Paulo Faltay

Design gráfico 

Paula Cardoso 

Parcerias

Apoio

COMO CITAR?

BRUNO, Fernanda; BENTES, Anna; FALTAY; Paulo; CARDOSO, Paula; ANTOUN, Mariana; PIO, Debora; STRECKER, Helena; CAPUTO, Manuella; ROCHA, Natássia. Economia Psíquica do Algoritmo em Linha do Tempo. Blog do MediaLab.UFRJ, 2021. Disponível em: <http://medialabufrj.net/blog/2021/03/economia-psiquica-dos-algoritmos-na-linha-do-tempo/>. Acesso em: dia, mês, ano.

REFERÊNCIAS

BENTES, Anna. Dobras #4 // Quase um tique: economia da atenção, vigilância e espetáculo a partir do Instagram, 2018. Disponível em: < http://medialabufrj.net/blog/2018/05/dobras-4-quase-um-tique-economia-da-atencao-vigilancia-e-espetaculo-a-partir-do-instagram/>

BRUNO, Fernanda. Algoritmo da felicidade. In: Dossiê: Subjetividades, Política E Mídia. Revista DR, 2015.

Disponível em: http://revistadr.com.br/posts/algoritmo-da-felicidade/

______.. A economia psíquica dos algoritmos: quando o laboratório é o mundo. Jornal NEXO, 12 de junho de 2018. Disponível em: < https://www.nexojornal.com.br/ensaio/2018/A-economia-ps%C3%ADquica-dos-algoritmos-quando-o-laborat%C3%B3rio-%C3%A9-o-mundo>

BRUNO, Fernanda; BENTES, Anna; FALTAY, Paulo. Economia psíquica dos algoritmos e laboratório de plataforma: mercado, ciência e modulação do comportamento. Revista Famecos, Porto Alegre, v. 26, nº 3, set-dez, 2019.  Disponível em: <http://revistaseletronicas.pucrs.br/ojs/index.php/revistafamecos/article/view/33095 >

BRUNO, F.; BENTES, A.; ANTOUN, M.; CARDOSO; P.; FALTAY, P.; STRECKER, H.; MARRAY , M.; ROCHA, N. (2020). “Tudo por conta própria”: aplicativos de autocuidado psicológico e emocional. Rio de Janeiro: MediaLab.UFRJ. Disponível em: <https://medialabufrj.net/wp-content/uploads/2020/05/Relatorio_PsiApps_MediaLabUFRJ-1.pdf>

EYAL, Nir. Hooked: How to Build Habit-forming Products. Nova York: Portfolio/Penguin, 2014

FALTAY, Paulo. Dobras #3 // Algoritmos da paranoia: agência, subjetividade e controle, 2018. Disponível em: < http://medialabufrj.net/blog/2018/05/dobras3-algoritmos-da-paranoia-agencia-subjetividade-e-controle/>  

GUATTARI, Félix. O inconsciente maquínico: ensaios de esquizo-análise. Tradução de Constança Marcondes César e Lucy Moreira César. Campinas: Papirus, 1988.

HUI, YUK. Cosmotechnics as Cosmopolitics. e-flux journal 86 (Novembro de 2017). Acessado em 19 de novembro de 2017. Disponível em: http://www.e-flux.com/journal/86/161887/cosmotechnics-as-cosmopolitics/

LAZZARATO, Maurizio. Signos, máquinas, subjetividades. São Paulo; Helsinque: n-1 Edições; Edições Sesc São Paulo, 213p., 2014

LEONELLI, Sabine. What difference does quantity make? On the epistemology of Big Data in biology. Big Data & Society 1, 2014.

O’NEIL, Cathy. Weapons of math destruction. Nova York : Crown Publishers, 2016.

PARISI, Luciana. Contagious Architecture: Computation, Aesthetics and Space. Cambridge, MA: MIT Press, 2013.

PASQUALE, Frank. The Black Box Society: The Secret Algorithms that Control Money and Information. Cambridge: Harvard University Press, 2015.                                 

PASQUINELLI, Mateo. Um diagrama do capitalismo cognitivo e da exploração da inteligência social geral. 16 de março de 2010. Disponível em:  <http://matteopasquinelli.com/docs/Pasquinelli_PageRank.pdf* traduzido pelo coletivo Vila Vudu> Acesso em 10 de abril de 2018.

______. Anomaly Detection: The Mathematization of the Abnormal in the Metadata Society, 2015. Disponível em:

https://www.academia.edu/10369819/Anomaly_Detection_The_Mathematization_of_the_Abnormal_in_the_Metadata_Society. Acessado em: 01 de maio de 2018.

REGATTIERI, Lorena. Dobras Dobras#5 // Algoritmização da vida: revirando os fundamentos da automação, 2018. Disponível em: < http://medialabufrj.net/blog/2018/06/dobras5-algoritmizacao-da-vida-revirando-os-fundamentos-da-automacao/>

REIGELUTH, Tyler. Why data is not enough: Digital traces as control of self and self- control. Surveillance & Society. 12(2): 243-354, 2014.

SRNICEK, Nick. Platform Capitalism. Malden: Polity Press, 2017

TERRANOVA, Tiziana. ‘’Red Stack Attack: Algorithms, Capital and the Automation of the Common’’ in R. Bishop, K, Kensing, J. Parikka and E. Wilk eds. across and beyond . A transmediale Reader on Post-digital Practices, Concepts and Institutions. Berlin: Sternberg Press, pp. 202-220, 2016.

TUFECKI, Zeynep. We’re building a dystopia just to make people click on ads.  Palestra proferida no TED Taks, Monterey (California), set. 2017. Disponível em:

https://www.ted.com/talks/zeynep_tufekci_we_re_building_a_dystopia_just_to_make_people_click_on_ads?language=pt-br

ZUBOFF, Shoshana. Big Other: Surveillance Capitalism and the Prospects of an Information Civilization. Journal of Information Technology, n. 30, pp.75–89, 2015.

_______. Secrets of Surveillance Capitalism. Publicado em 05 de março de 2016. Disponível em: <http://www.faz.net/aktuell/feuilleton/debatten/the-digital-debate/shoshana-zuboff-secrets- of-surveillance-capitalism-14103616.html?printPagedArticle=true#pageIndex_2  > Acesso em: 4 de abril de 2018.