#Dobras 3 // Algoritmos da paranoia: agência, subjetividade e controle E

18 de maio de 2018

Por Paulo Faltay

 

“O algoritmo do Tinder mudou, tenho certeza! Meus matches diminuíram consideravelmente nas últimas semanas depois da atualização”. As frases são de uma conversa com um amigo que procurava demonstrar como a recente queda no número de combinações amorosas estaria relacionada a uma estratégia deliberada para incitar e manter pessoas conectadas ao aplicativo.

O que me interessa nas frases é que, por mais absurdas que possam soar a princípio, elas fazem sentido. O emprego de táticas para, a partir do monitoramento e produção de dados digitais pessoais e relacionais, estimular e influenciar pessoas e grupos por empresas, serviços e ferramentas, bem como a análise automatizada por algoritmos, é, mais que padrão, condição estruturante do capitalismo de vigilância (Zuboff, 2015) e de uma economia das plataformas (Srnicek, 2017).

A pesquisa parte, portanto, da ideia de que sintomas classicamente associados à subjetividade paranoica – como crenças de monitoramento intermitente, de persuasão e de manipulação emocional e comportamental por agentes externos – se apresentam como referência ou paradigma para a relação entre os humanos e as tecnologias em período marcado pela crescente transformação de um mundo logocêntrico em um mundo maquínico (Guattari, 1988; Lazzarato, 2014).

A tese se desdobra em três eixos. A primeiro parte do ensaio de Victor Tausk sobre as máquinas de influenciar (1919) e de uma breve genealogia dos casos de pessoas que se entendiam manipuladas por máquinas e dispositivos técnicos para então analisar a comunidade autointitulada Indivíduos-Alvo, cujos membros defendem ser vítimas de perseguições e de manipulações da mente por meio de aparelhos tecnológicos. Nesta seção, argumentarei que, se a percepção da realidade em si se torna paranoica, em seus modos de sociabilidade e subjetivação, o que antes era considerado um delírio pode ser entendido como uma forma de interpretação associada a mudanças de estruturas sociotécnicas e de configurações materiais, tecnológicas e simbólicas de agência, poder e autoridade. Esta interpretação paranoica baliza, portanto, um entendimento de mundo compartilhado, ultrapassando as dimensões psíquicas particulares (Chun, 2008; Deleuze e Guattari, 2010).

O segundo eixo trata diretamente das ferramentas de elaboração algorítmica de perfis pessoais e/ou relacionais e das técnicas que visam a estimulação e a influência desenvolvidas a partir deles. Utilizados para a oferta de informações e conteúdos personalizados que inferem ser de relevância ou de interesse de quem utiliza as plataformas e serviços e também para o seu uso em estratégias securitárias, políticas e comerciais de intervenção e persuasão segmentadas e direcionadas a partir de características específicas (Bruno, 2013), sejam elas psicológicas, comportamentais, identitárias, demográficas, de consumo ou de preferências ideológicas e estéticas etc, defendo que estes perfis reforçam uma interpretação paranoica. A pista aqui a ser seguida é que a percepção paranoica, ilustrada nas frases do meu amigo no início, surja como uma tentativa de decifrar os meandros opacos e ininteligíveis da mediação algorítmica, que, ancorada nestes perfis, incide em nossas sociabilidades e subjetividades, bem como os perigos e as possíveis consequências nocivas que decisões automatizadas apresentam para determinados indivíduos ou grupo de pessoas (Blas, 2014, Pasquale, 2015; O’Neil, 2016; Tufecki, 2017)

Por fim, o algoritmo. Até pouco tempo circunscrito a círculos de programação e da matemática, o termo algoritmo é invocado em conversas informais, artigos acadêmicos, procedimentos institucionais e invencionices comerciais como a feição do ente responsável por definir, decidir e agenciar uma série de eventos, fenômenos e ações. A que modelo epistemológico e racionalidade política e econômica tal entendimento está associado (Daston e Galison, 2007; Daston et all, 2013). Interessa, aqui, também perceber características paranoicas nos próprios procedimentos tecnológicos e redes sociotécnicas. Em especial, as funções algorítmicas de correlação, reconhecimento de padrões e de detecção de anomalias (Pasquinelli, 2015) e seus usos para antecipar e prever acontecimentos, comportamentos e afetos visando a mitigar incertezas e riscos (Parisi, 2013, 2017; Terranova, 2016; Rouvroy e Berns, 2015),

Referências:

BLAS, Zachary Marshall. Informatic Opacity: Biometric Facial Recognition and the Aesthetics and Politics of Defacement. Tese em Filosofia na Duke University, 2014. Disponível em: https://dukespace.lib.duke.edu/dspace/handle/10161/9047
BRUNO, Fernanda. Máquinas de ver, modos de ser: vigilância, tecnologia e subjetividade. Porto Alegre: Sulina, 2013.

CHUN, Wendy Hui Kyong. Control and Freedom: Power and Paranoia in the Age of Fiber Optics. Cambridge, MA: MIT Press, 2008.

DASTON, Lorraine; GALISON, Peter. Objectivity. New York: Zone Books, 2007.

DASTON, Lorraine; ERICKSON, Paul; KLEIN, Judy L.; LEMOV, Rebecca; STURM, Thomas; GORDIN, Michael D. How Reason almost Lost its Mind: The Strange Career of Cold War Rationality. Chicago: Chicago University Press, 2013

DELEUZE, Gilles; GUATTARI, Félix. O Anti-Édipo: Capitalismo e Esquizofrenia, tradução de. Luiz B. L. Orlandi. — São Paulo: Ed. 34, 2010

GUATTARI, Félix. O inconsciente maquínico: ensaios de esquizo-análise. Tradução de Constança Marcondes César e Lucy Moreira César. Campinas: Papirus, 1988.

HUI, YUK. Algorithmic Catastrophe The Revenge Of Contingency. Parrhesia, vol 23, 2015, p. 122. Disponível em:https://www.parrhesiajournal.org/parrhesia23/parrhesia23_hui.pdf.

LAZZARATO, Maurizio. Signos, máquinas, subjetividades. São Paulo; Helsinque: n-1 Edições; Edições Sesc São Paulo, 213p., 2014

O’NEIL, Cathy. Weapons of math destruction. Nova York : Crown Publishers, 2016.

PARISI, Luciana. Contagious Architecture: Computation, Aesthetics and Space. Cambridge, MA: MIT Press, 2013.

______. Reprogramming decisionism. e-flux journal 85 (Outubro de 2017). Disponível em: http://www.e-flux.com/journal/85/155472/reprogramming-decisionism/. Acessado em 19 de dezembro de 2017.

PASQUALE, Frank. The Black Box Society: The Secret Algorithms that Control Money and Information. Cambridge: Harvard University Press, 2015.

PASQUINELLI, Matteo, Anomaly Detection: The Mathematization of the Abnormal in the Metadata Society, 2015.

ROUVROY, Antoinette; BERNS, Thomas. Governamentalidade algorítmica e perspectivas de emancipação: o díspar como condição de individuação pela relação? Revista Eco-Pós (Online), v. 18, p. 36-56, 2015.

SRNICEK, Nick. Platform Capitalism. Malden: Polity Press, 2017

TAUSK, Victor. On the Origin of the “Influencing Machine”. In: Schizophrenia. Journal of Psychotherapy Practice and Research, v. 1, n. 2, Spring 1992.

TERRANOVA, Tiziana. ‘’Red Stack Attack: Algorithms, Capital and the Automation of the Common’’ in R. Bishop, K, Kensing, J. Parikka and E. Wilk eds. across and beyond . A transmediale Reader on Post-digital Practices, Concepts and Institutions. Berlin: Sternberg Press, pp. 202-220, 2016.

TUFECKI, Zeynep. We’re building a dystopia just to make people click on ads.  Palestra proferida no TED Taks, Monterey (California), set. 2017. Disponível em: https://www.ted.com/talks/zeynep_tufekci_we_re_building_a_dystopia_just_to_make_people_click_on_ads?language=pt-br

ZUBOFF, Shoshana. Big Other: Surveillance Capitalism and the Prospects of an Information Civilization. Journal of Information Technology, n. 30, pp.75–89, 2015.