DOBRAS #42 // PERFORMATIVIDADE, CORRELACIONISMO E A PROBABILIZAÇÃO DO FUTURO: A ORDEM DAS COISAS NA ERA DO ALGORITMO

12 de março de 2021

Por Paula Cardoso Pereira*

 

Esse texto é uma versão adaptada de uma fala feita para a Mesa Temática “Economia Psíquica dos Algoritmos: Produção de conhecimento e modulação do comportamento” que integrou o XIII Simpósio Nacional da ABCiber, ocorrido virtualmente em dezembro de 2020. Na atividade, pesquisadores do MediaLab.UFRJ compartilharam investigações individuais e coletivas que integram esta frente de pesquisa do laboratório. 

Nele reflito sobre alguns aspectos do regime de saber dos algoritmos preditivos da Inteligência Artificial, tratando de pensá-los a partir de suas bases epistemológicas e de sua racionalidade. Para tanto, abordarei três deslocamentos que a racionalidade algorítmica e a produção de conhecimento ao qual essa racionalidade está associada produz na “ordem das coisas” (FOUCAULT, 2016). Ou seja, três aspectos desse regime de conhecimento ancorado na junção do Big Data com os algoritmos ditos inteligentes:

  1. a prevalência da performatividade sobre a representação como modo de produção da verdade;
  2. a prevalência do correlacionismo sobre a causalidade como modo de explicação da realidade;
  3. a prevalência do provável sobre o possível como modo de relação com o futuro.

CONTEXTO

No contexto de um cada vez mais valioso mercado que extrai e analisa automaticamente imensos volumes de dados, a produção de conhecimento agenciada pelos algoritmos é essencial para aquilo que Shoshana Zuboff (2019), ao propor a emergência de um “capitalismo de vigilância” chamou de “mercados de comportamentos futuros”, ou seja, mercados nos quais predições sobre nossos comportamentos futuros são comercializadas.

Tais transformações podem ser compreendidas na esteira de um projeto de dataficação da vida cuja fronteira essencial passa a ser aquela que divide o computável e o incomputável (MBEMBE, 2019). Nesse projeto, como pontua Mbembe, ao abordar o caráter extrativista e neocolonial das formas contemporâneas de extração de recursos no capitalismo tecnológico, “o que não é computável, não existe”.  Uma vez que tudo e todos são potencialmente rastreáveis e monitoráveis — das nossas trajetórias e ações às nossas personalidades, estados emocionais e inclinações, como a pesquisa Economia Psíquica do Algoritmo vem demonstrando —, a extração e análise de dados através de técnicas de aprendizado de máquinas sob o paradigma do Big Data permite inferir predições sobre propensões futuras. 

Nesse paradigma, a incerteza é agora apresentada como mero “problema de informação” que pode ser solucionado recorrendo-se aos dados e análises adequados (WANG, 2017) e as decisões são mais seguras quanto mais automatizadas forem. Nas palavras de Chris Anderson, que anunciou o “fim da teoria” depois da ascensão do dataísmo: “[c]om dados suficientes, os números falam por si mesmos” (2008).

Se o Big Data se transformou num oráculo para as indústrias do mercado, da ciência, da guerra ou da política, o algoritmo é o pequeno profeta capaz de revelar os signos da predição contidos nos massivos bancos de dados. Nesse cenário, a produção de predições por meio dos algoritmos da Inteligência Artificial se torna um modo de simultaneamente produzir e capturar o futuro por meio de automatismos tecnolinguísticos (BERARDI, 2019). Esse regime de saber e poder também produz novas formas de categorização do real e está intrinsecamente relacionado ao uso de saberes probabilísticos e estatísticos para antecipação de comportamentos e eventos (BENBOUZID e CARDON, 2018; ROUVROY e BERNS, 2015), privilegiando e proliferando os futuros fundados no provável, conforme veremos ao longo do texto.

As questões que estou descrevendo se inscrevem em continuidades e rupturas históricas mais amplas  — como os desdobramentos contemporâneos dos regimes da vigilância, do controle e do risco, a função da antecipação para as práticas securitárias contemporâneas e para o neoliberalismo, e a transformação entendimento de mundo que está em jogo com o possível ocaso da razão fundamentada no sujeito reflexivo moderno (C.f. BRUNO, 2019; ROUVROY e BERNS, op. cit.) e a delegação de decisões para máquinas. Mas, além disso, tais questões estão intimamente relacionadas à própria lógica operativa dos algoritmos de IA, ao modo como esses objetos técnicos são construídos e raciocinam. É a partir do detalhamento dessa lógica operativa que retornarei aos três deslocamentos apresentados no início do texto.

O que se chama comumente de Inteligência Artificial poderia ser descrito, em termos técnicos, como a capacidade que os algoritmos que utilizam métodos de aprendizado de máquinas, sobretudo as redes neurais (os chamados algoritmos de aprendizagem profunda), possuem de produzir um cálculo indutivo sobre um grande conjunto de dados (PASQUINELLI, 2017; CARDON, COINTET, MAZIERES, 2018). Essa capacidade é o que confere aos algoritmos habilidades “cognitivas não conscientes” (HAYLES, 2017) específicas de interpretação, classificação e predição.  Ou seja, um algoritmo preditivo calcula a distribuição estatística de padrões num determinado banco de dados (conjunto de dados de treinamento) através da análise de correlações entre variáveis. A partir disso, produz um modelo estatístico capaz de gerar inferências sobre novos conjuntos de dados, calculando futuros prováveis.

Essa característica é o resultado de uma história cheia de controvérsias e disputas entre dois paradigmas: o simbolista e o conexionista (CARDON, COINTET, MAZIERES, op. cit.). O simbolista se baseia na “dedução simbólica” e o conexionista na automatização da “indução estatística”. Cardon, Cointet e Mazieres definem a história recente da IA como a transição de um paradigma baseado em “máquinas hipotéticas dedutivas”, que prevaleceu desde os anos 60 até recentemente, para um baseado em “máquinas indutivas” e cujas disputas refletem também os deslocamentos no próprio entendimento da cognição humana. 

Essa mudança marca, portanto, a passagem do predomínio de uma lógica dedutiva para uma lógica indutiva que não necessita saber de antemão quais explicações para os fenômenos “contidos” no conjunto de dados analisados. Para Luciana Parisi (2017) trata-se de uma transformação de concepção da IA como modo de validação (paradigma simbolista) para modo de descoberta (paradigma conexionista). As máquinas conexionistas contemporâneas, capazes de “aprender a aprender”, não necessitam que se fixem objetivos de antemão para que elas operem. São sistemas adaptativos que prescindem de hipóteses capazes de gerar indutivamente atributos potenciais a partir de padrões que emergem em um corpus de dados (AMOORE, 2019).

TRÊS DESLOCAMENTOS

Retorno agora aos três aspectos inicialmente apresentados sobre os deslocamentos que o regime epistemológico dos algoritmos preditivos provocam na “ordem das coisas” (FOUCAULT, 2016). Importante pontuar que cada um deles está conectado a processos históricos mais amplos e complexos e que mereceriam uma análise mais detalhada. No entanto, pelo caráter deste texto, não me atenho em profundidade em cada um.

 

 

Vários autores vêm ressaltando o caráter performativo da mediação algorítmica (C.f INTRONA, 2016; MACKENZIE, 2005; BRUNO, 2019; CESARINO, 2021). Nesse regime de saber, mais do que a descrição de uma realidade pré-existente, como num modelo de conhecimento assentado sobre a representação, importa a produção de realidades e subjetividades. Nas palavras de Fernanda Bruno (2019):

[o] tipo de conhecimento gerado por processos algorítmicos está em muitos casos em ruptura com os modelos representacionais de conhecimento, cuja força epistêmica seria a capacidade de descrever ou compreender uma realidade ou fenômeno dado, mantendo-se o mais fiel possível a um referente qualquer. A força da racionalidade performativa dos algoritmos não está em descrever ou representar, mas sim em gerar efeitos e produzir realidades.

Ainda que pareça paradoxal com os ideias de objetividade e neutralidade ressaltados entre seus promotores, sobretudo os tecnosolucionistas da ciência de dados, sob a “governamentalidade algorítmica” (ROUVROY e BERNS, op. cit.) a acurácia das predições importa menos do que os efeitos que essa governamentalidade é capaz de produzir. Talvez nenhuma máquina preditiva contemporânea sintetize mais o poder performativo algorítmico sobre o futuro do que os algoritmos financeiros para negociação de derivativos (High Frequency Algorithms), verdadeiras profecias autorrealizadoras do capitalismo financeirizado. 

A performatividade do saber algorítmico está diretamente relacionada à recursividade desses sistemas, materializada no feedback negativo, ou seja, a retroalimentação dos outputs de erro num novo sistema adaptativo e maior axioma da cibernética. O feedback negativo é a base do que Morozov chama de princípio da regulação algorítmica, que permite a um sistema “manter a estabilidade por meio do aprendizado constante e da adaptação às circunstâncias variáveis” (2018, p. 85) e é crucial para a capacidade de “aprender a aprender” dos algoritmos ditos inteligentes, especialmente as redes neurais. Uma vez que as “falhas” são incorporadas para o refinamento dos modelos preditivos, a noção de verdade (ou seu oposto) não é mais uma categoria propriamente adequada ou relevante aqui. Noutros termos: todos os outputs são verdadeiros uma vez que do ponto de vista informacional modulam o aperfeiçoamento do sistema. 

O predomínio da performatividade que estou ressaltando pode também ser pensado como um dos efeitos de uma crise da representação num contexto mais amplo. Segundo Rouvroy (ROUVROY e STIEGLER, 2016), o fenômeno da digitalização e da algoritmização se relaciona a uma crise radical da representação em si mesma. Por isso, para a autora, a ascensão da governamentalidade algorítmica não coincide com a emergência de outro regime da verdade, mas numa crise do próprio regime da verdade que resultaria numa busca pela objetividade absoluta, por segurança e certeza (em parte encontradas na autoevidência dos “dados que falam por si mesmos”). Ainda segundo ela, essa procura é traduzida não necessariamente pela erradicação da incerteza, mas pela neutralização dos efeitos negativos de uma incerteza radical. 

 

 

A predominância hoje dos modelos indutivos de inteligência automatizada e o que se poderia chamar de crise dos modelos dedutivos tem como um de seus traços a predominância da correlação sobre a causalidade como modelo de entendimento dos fenômenos. Como consta em um material comercial da empresa SAP sobre a Análise Preditiva por eles ofertada:

Os algoritmos usam o aprendizado de máquina para identificar e medir quais preditores estão altamente correlacionados com os alvos que você está tentando prever. Em outras palavras, eles tentam identificar preditores que parecem ter um forte relacionamento ou conexão com os resultados. Isso não é o mesmo que identificar preditores como sendo a causa de resultados específicos. (SAP, 2017)

Resumindo num mantra da análise de dados: correlação não implica causalidade. Porém, mais do que a prevalência da correlação sobre a causalidade, talvez seja a indiferença a esta última a marca desse regime de saber, uma vez que seu conhecimento não é mais necessário para monitorar e modificar os comportamentos dos sujeitos e fenômenos. Nesse sentido, não é uma coincidência que o modelo behaviorista de sujeito — que substitui uma ‘engenharia das almas’ por uma ‘engenharia do comportamento’ e reduz a experiência a comportamentos observáveis e mensuráveis — seja aquele que melhor convenha ao capitalismo de vigilância, como bem descreve Zuboff (2019).

Retornando a Chris Anderson, citado no início do texto:

É um mundo no qual as quantidades massivas de dados e as matemáticas aplicadas substituem todas as outras ferramentas que poderiam ser utilizadas. Adeus a todas as teorias sobre os comportamentos humanos, da linguística a sociologia. Esqueçam a taxonomia, a ontologia e a psicologia. Quem pode saber por que as pessoas fazem o que fazem? O fato é que o fazem e que nós podemos traçá-lo e medi-lo com uma fidelidade sem precedente (ANDERSON, 2008).

Como vimos, com a extração massiva de dados e as máquinas indutivas, não é mais necessário elaborar hipóteses a priori para serem validados já que torna-se possível a produção de conhecimentos sobre sujeitos e fenômenos a partir do reconhecimento de padrões e correlações posteriores à construção desse aparato. Isso se refere àquilo que Rouvroy e Berns (op. cit.) chamam de “caráter a-normativo” da governamentalidade algorítmica que, em contraponto às práticas estatísticas modernas ancoradas sobre a “média” ou o “normal”, afasta-se supostamente de qualquer intencionalidade subjetiva para que as normas e o próprio conhecimento surjam do real objetivamente apreendido ou contido nos dados.

Tal regime de saber, como a declaração de Anderson exprime, acredita ser possível descobrir conhecimentos sobre o mundo diretamente no mundo, sem a mediação de representações, alimentando aquilo que Bruno, Bentes e Faltay (2019) chamam de dimensão laboratorial do capitalismo de dados. Capitaneado pelas grandes plataformas digitais, esse modelo simultaneamente econômico, epistemológico e de controle comportamental transforma o espaço digital num “laboratório-mundo” (ibid.) no qual os usuários são submetidos a contínuos testes e intervenções dos quais dificilmente têm consciência de serem alvo.

Quando afirmo que esses sistemas sociotécnicos prescindem de hipóteses para operarem não quero dizer, é claro, que as categorias sobre as quais eles são construídos são neutras ou carecem de efeitos sobre os resultados produzidos, mas que a lógica da racionalidade sobre a qual essas máquinas operam não se relaciona à validação via dedução, mas à descoberta via indução. Esse traço aponta novamente para o predomínio da performatividade sobre a representação abordada no ponto anterior.

A prevalência do correlacionismo sobre a causalidade enquanto modelo epistemológico é também própria de um governo dos efeitos e não das causas enquanto modelo político. Morozov recupera um discurso de Agamben em que este discute uma transformação epocal na ideia de governo que modifica a tradicional relação hierárquica entre causas e efeitos. “Já que governar as causas é difícil e caro”, diz o filósofo italiano, “é mais seguro e útil tentar governar os efeitos” (AGAMBEN apud MOROZOV, 2018, p. 89). Segundo Morozov, a regulação algorítmica é a concretização do programa político de governo dos efeitos em detrimento às causas em formato tecnológico. Alinhada ao extrativismo de dados, tão caro aos economistas comportamentais, a obsessão pelo monitoramento dos efeitos é indiferente às reais causas dos problemas. Inclusive porque as causas, sobretudo das múltiplas formas de precarização da vida no neoliberalismo, não são computáveis pelo regime de saber algorítmico.

 

 

Pelas características que vim descrevendo e sobretudo pelo uso que essas tecnologias fazem de saberes probabilísticos e estatísticos para fins de antecipação de comportamentos e eventos, a predição algoritmicamente produzida pode ser entendida como uma tecnologia de governo do tempo cujas dimensões mais poderosas se relacionam ao modo como regulam, intervém e estruturam o campo de ação possível.

Poderíamos dizer que esses sistemas sociotécnicos integram um projeto que visa governar os eventos, os riscos, o desconhecido, o acaso, a incerteza e, no limite, a própria vida não mais no campo do possível, mas no campo do provável. Mais especificamente, essa “normatividade estatística” (ROUVROY e BERNS, op. cit.) pretende reduzir o possível aos limites do provável e do previsível, provocando o que Fernanda Bruno vem chamando de “sequestro do futuro”. 

Nesse contexto, o saber-poder estatístico, fundamental enquanto tecnologia de governo moderno na discriminação do normal e do anormal (FOUCAULT, 2008, 2008a) passa das mãos do Estado para as das corporações de tecnologia. Como alertam Pasquinelli e Joler (2020): “A norma institucional tornou-se computacional: a classificação do sujeito, de corpos e comportamentos parece não ser mais um assunto para registros públicos, mas para algoritmos e centros de dados”.

Tais tecnologias de governo do tempo visam capturar as potências de criação e variação do possível inscrevendo uma “memória do futuro” (ROUVROY e BERNS, op. cit., p. 48) que transforma o passado em matriz para um porvir fundado na crença na repetição e no rechaço ao imprevisível. Certamente uma das implicações desse modelo diz respeito aos efeitos (epistemológicos, subjetivos, políticos) que o excesso de similaridade e repetição recursivamente reforçados nos ambientes digitais podem desencadear, dentro e fora deles. 

Ainda que falar de uma probabilização do devir possa soar extremamente abstrato, trata-se de algo dotado de implicações materiais concretas e se refere a como “possibilidades se tornam mais ou menos disponíveis ou indisponíveis para determinados atores em contextos específicos” (BUCHER, 2019). Os modelos preditivos baseados na correlação estatística, associados sobretudo à segmentação por perfis e vendidos sob a cifra da personalização, modulam desde os conteúdos que visualizamos nos nossos feeds, os trajetos que percorremos no nosso cotidiano, os filmes que assistimos, até o fato de acedermos ou não um financiamento, um emprego, uma vaga na universidade, etc. 

A governamentalidade algorítmica ancorada na probabilidade e na previsibilidade se relaciona não só à capacidade de inferir predições mas de (uma vez sabendo dessas predições) intervir antecipadamente para probabilizar determinadas atualizações no curso das ações e desprobabilizar outras, agindo principalmente sobre as “arquiteturas de decisão” (ZUBOFF, op. cit.). Transformar alguns futuros em prováveis e outros em improváveis é uma das ações mais eficazes do governo algorítmico.

Uma vez que não se trata somente de novas formas de conhecer o sujeito e o mundo, mas de produzi-los, refletir sobre as implicações do regime de saber das máquinas preditivas para a constituição do campo do possível talvez seja uma das tarefas urgentes de uma tecnopolítica da era do algoritmo.

Referências:

AMOORE, Louise. Introduction: Thinking with Algorithms: Cognition and Computation in the Work of Katherine Hayles. Theory, Culture and Society, vol. 36, n. 2, 2019, pp. 1-14.

ANDERSON, Chris. The End of Theory: The Data Deluge Makes the Scientific Method Obsolete. Wired, 23 de junho de 2008. Disponível em: https://www.wired.com/2008/06/pb-theory/

BENBOUZID, Bilel; CARDON, Dominique. Machines à prédire. Réseaux, vol. 211, n. 5, 2018, pp. 9-33.

BERARDI, Franco. Depois do Futuro. São Paulo: Ubu Editora, 2019.

BRUNO, Fernanda; PEREIRA, Paula; FALTAY, Paula; BENTES, Anna; ANTOUN, Mariana; MARRARY, Moisés; ROCHA, Natassia; PIO, Débora; STRECKER, Helena. “Tudo por conta própria”: aplicativos de autocuidado psicológico e emocional. 2020. (Relatório de pesquisa). Disponível em: http://medialabufrj.net/publicacoes/2020/relatorio-tudo-por-conta-propria-aplicativos-de-autocuidado-psicologico-e-emocional/

BRUNO, Fernanda. Tecnopolítica, racionalidade algorítmica e mundo como laboratório: entrevista com Fernanda Bruno. DigiLabour, 25 de outubro de 2019. Disponível em: <https://digilabour.com.br/2019/10/25/tecnopolitica-racionalidade-algoritmica-e-mundo-como-laboratorio-entrevista-com-fernanda-bruno/>

BRUNO, Fernanda; BENTES; Anna, FALTAY; Paulo. Economia Psíquica dos Algoritmos e Laboratório de Plataforma: Mercado, Ciência e Modulação do Comportamento. Revista Famecos, v. 26, n. 3, 2019.

BUCHER, Taina. Imaginários e políticas dos algoritmos: entrevista com Taina Bucher. DigiLabour, 12 de julho de 2019. Disponível em: https://digilabour.com.br/2020/07/12/imaginarios-e-politicas-dos-algoritmos-entrevista-com-taina-bucher/

CARDON, Dominique; COINTET; Jean-Philippe Cointet; MAZIERES, Antoine. Neurons spike back: The Invention of Inductive Machines and the Artificial Intelligence Controversy. Réseaux, vol. 5, n. 211, 2018. 

CESARINO, Letícia. Pós-Verdade e a Crise do Sistema de Peritos: uma explicação cibernética. Revista Ilha, v. 23, n. 1, p. 73-96, 2021.

HAYLES, N. Katherine. Unthought: The Power of Cognitive Nonconscious. Chicago: University of Chicago Press, 2017.

INTRONA, Lucas D. The algorithmic choreography of the impressionable subject. In: SEYFERT, Robert, ROBERGE, Jonathan (eds.). Algorihmic Cultures: Essays on meaning, performance and new technologies. London e New York: Routledge, 2016.

FOUCAULT, Michel. As Palavras e as Coisas: Uma Arqueologia das Ciências Humanas. Martins Fontes: São Paulo, 2016.

FOUCAULT, Michel. Segurança, Território e População. Curso dado no College de France (1977-1978). São Paulo: Martins Fontes, 2008.

FOUCAULT, Michel. O Nascimento da Biopolítica. Curso dado no College de France (1977-1978). São Paulo: Martins Fontes, 2008a.

MACKENZIE, Adrian. The Performativity of Code: Software and Cultures of Circulation. Theory, Culture & Society. 22 (1): 71–92, 2005.

MBEMBE, Achille. Bodies as Borders. The European South, n. 4, pp. 5-18, 2019.

MOROZOV, Evgeny. Big Tech: A Ascensão dos Dados e a Morte da Política. São Paulo: Ubu Editora, 2018.

PARISI, Luciana. Reprograming Decisionism. E-flux journal, n. 85, 2017. Disponível em: <https://www.e-flux.com/journal/85/155472/reprogramming-decisionism/>

PASQUINELLI, Matteo. Machines that Morph Logic: Neural Networks and the Distorted Automation of Intelligence as Statistical Inference (online). 2017. Disponível em: <http://www.glass-bead.org/article/machines-that-morph-logic/?lang=enview>

PASQUINELLI, Matteo. Arcana Mathematica Imperii: The Evolution of Western Computational Norms Em HLAVAJOVA, Maria e SHEIKH, Simon (eds.), Former West: Art and the Contemporary after 1989 . Cambridge: The MIT Press, 2016, pp. 281-295. 

PASQUINELLI, Matteo; JOLER, Vlader. O Manifesto Nooscópio: Inteligência Artificial como Instrumento de Extrativismo do Conhecimento. Blog Lavits. 2020. Disponível em: https://lavits.org/o-manifesto-nooscopio-inteligencia-artificial-como-instrumento-de-extrativismo-do-conhecimento/?lang=pt

ROUVROY, Antoinette; BERNS, Thomas. Governamentalidade Algorítmica e perspectivas de emancipação: o díspar como condição de individuação pela relação?. Revista ECO Pós, vol. 18, n. 2, 2015.

ROUVROY, Antoinette; STIEGLER, Bernard. The Digital Regime of Truth: From Algorithmic Governmentality to a New Rule of Law. La Deleuziana, n. 3, 2016. 

SAP. Your Predictive Journey. 2017. (Material de divulgação)

WANG, Jackie. “This is a Story About Nerds and Cops”: Predpol and Algorithmic Policing. E-flux journal, n. 87, 2017. Disponível em: <https://www.e-flux.com/journal/87/169043/this-is-a-story -about-nerds-and-cops-predpol-and-algorithmic-policing/>

ZUBOFF, Shoshana. The Age of Surveillance Capitalism: The Fight for a Human Future ate the New Frontier of Power. PublicAffairs: New York, 2019.