#Dobras 38 // Precariado algorítmico: o trabalho humano fantasma nas maquinarias da inteligência artificial

24 de setembro de 2019

Por Paula Cardoso*

 

“Eles estão nos escutando”

Em agosto passado, o Ministério da Justiça e Segurança Pública notificou o Facebook em razão de notícias veiculadas na mídia sobre o pagamento de terceirizados para escutarem e transcreverem áudios de usuários de seus serviços, tais como o Messenger. Depois disso, a Secretaria Nacional do Consumidor abriu uma investigação a respeito. Longe de ser um caso isolado, o episódio soma-se a uma série de escândalos envolvendo as gigantes da tecnologia e notícias de que contratados dessas empresas estariam escutando áudios dos usuários. Sabe-se que a Amazon mantinha uma equipe dedicada a escutar conversas gravadas pela assistente pessoal Alexa; que a Microsoft utilizou os mesmos serviços para ouvir áudios provenientes do Skype, Cortana e xBox; a Apple para ouvir áudios da assistente Siri; e a Google para o Google Assistant. Depois de negarem reiteradamente a veracidade das acusações [1], as empresas acabaram admitindo que trechos de gravações captadas em suas plataformas eram de fato revisados e transcritos por humanos.

A prática, que não era secreta dentro das empresas, apesar de realizada sempre por terceirizados que nem sempre sabiam a origem dos áudios, como foram obtidos ou qual a finalidade das transcrições, envolvia a escuta de conteúdos sensíveis. O objetivo, alegaram todas, é avaliar a precisão e aperfeiçoar seus algoritmos de inteligência artificial, sobretudo os de reconhecimento de voz e de tradução, e que o percentual de áudios submetidos a tais processos era muito pequeno.

As revelações e a abertura de processos coletivos por violação de privacidade levou a Apple, Amazon e Facebook a alegarem publicamente que interromperam a revisão de áudios. Já a Microsoft optou por modificar sua política de privacidade, especificando mais claramente como e por que fazem uso da prática e o Google iniciou uma reavaliação do procedimento na Europa, onde, como se sabe, as leis relacionadas à privacidade são mais rígidas.

Essa sequência de fatos funcionaria como uma espécie de prova concreta para a suspeita, certamente experimentada por muitos de nós, de que “eles estão nos escutando” e cuja motivação clássica é aquela da exibição de um anúncio de produto ou serviço diretamente relacionado a uma conversa ocorrida minutos antes. Sim, eles estão. Mas talvez não pelos motivos confabulados por essa espécie de imaginário paranoide em relação à tecnologia (Faltay, 2009) que encontra atualmente no algoritmo um pequeno deus omnisciente — com seus olhos e ouvidos sempre atentos — desse aparato vigilante.

Ou ainda, talvez possamos olhar para esses casos de escuta de áudio sob outro prisma. Apesar de serem evidentes e graves os ataques à privacidade e à proteção de dados que implicam, há uma dimensão da questão que parece ficar em segundo plano nos debates envolvendo supervisão humana de sistemas automatizados: aquela das relações entre precarização do trabalho e o desenvolvimento da inteligência artificial.

Como aponta esta matéria do Nexo, a utilização dos chamados “microtrabalhos” por empresas de tecnologia que se valem de sistemas de inteligência artificial não é apenas uma realidade como o modelo de operação mais comum para resolução de tarefas que vão muito além da escuta e transcrição de áudios e incluem, por exemplo, a classificação de imagens, a moderação de conteúdo, o preenchimento de formulários e tabelas, a verificação de endereços, testes de usabilidade e muitas outras. Todas as tarefas são distribuídas online, sob demanda, por meio de plataformas como o Mechanical Turk, de propriedade da Amazon.

 

Pouco se sabe, ou se divulga, que por trás da ação do computador em tarefas desse tipo existe o trabalho de pessoas de carne e osso. Ao redor do mundo, existem milhões de indivíduos realizando tarefas, chamadas de “microtrabalhos”, que os computadores ainda não têm capacidade de executar. Mas não é apenas essa a questão: em muitas situações, os humanos simplesmente custam mais barato (Rocha, 2019).

 

Ou seja, ainda que seja fato que o aperfeiçoamento dos sistemas artificiais demande uma revisão contínua sobre a precisão de suas capacidades de reconhecimento de padrões, sobretudo nos casos que envolvem interpretação contextual de significados ou nuances de pronúncia, em última instância o motivo crucial para utilizar mão de obra humana para estas tarefas é que é mais barato e mais fácil “fazer com que humanos se comportem como robôs do que fazer com que máquinas se comportem como humanos” (Solon, 2018).

Fantasmas do capitalismo algorítmico

Esse “trabalho fantasma” realizado por uma nova “subclasse” invisível, distribuída e cada vez mais numerosa — os chamados crowdworkers — foi investigado pela antropóloga Mary L. Gray, autora com Siddharth Suri de Ghost Work: How to Stop Silicon Valley from Building a New Global Underclass (2019). Eles estimam que 8% dos americanos já trabalharam pelo menos uma vez nessa “economia fantasma” e esse número está crescendo. Mas a verdade é que não há estatística precisa sobre a quantidade de pessoas realizando esse tipo de tarefa.

O site Microworkers divulga em sua home page que conta com mais de 1,3 milhão de pessoas prontas para receber uma solicitação. A Amazon declara que conta com meio milhão de “turkers”. Só como moderadores de conteúdo para o Facebook, estima-se que sejam 15.000 pessoas ao redor do mundo. No Brasil, as pesquisas e dados sobre esse mercado ainda são incipientes, mas sabe-se, por exemplo, que nossa mão de obra costuma ter alta taxa de rejeição no Mechanical Turk (Rocha, op. cit.).

A força de trabalho humana que alimenta os algoritmos da inteligência artificial opera de modo fragmentado e vulnerável. As tarefas são normalmente bastante específicas, para serem realizadas de modo ágil e em grande volume, promovidas pela já velha retórica da flexibilidade e da autonomia, conformando “uma espécie de linha de montagem digital em que cada trabalhador cuida de um parafuso específico” (Rocha, op. cit.).

As relações trabalhistas são desprotegidas e precárias, já que não há leis que contemplem esse tipo de atividade em praticamente nenhum lugar do mundo. A fragmentação não só das tarefas, mas da própria distribuição global destes “condenados do algoritmo” e o raro contato entre contratados são fatores que dificultam ainda mais qualquer articulação política por melhorias de condições.

À semelhança do modelo de negócios de serviços como o Uber ou Rappi, os ganhos por tarefa são extremamente baixos: na plataforma Mechanical Turk, por exemplo, o ganho médio por hora é de US$ 2 e há inúmeras tarefas que rendem em torno de 10 centavos de dólar — implicando a dedicação de muitas horas diárias de trabalho para levantar uma quantia razoável. As cláusulas de contrato, incluem em geral, a proibição de que os contratados falem para outras pessoas para quem trabalham ou o que fazem. A empresa TaskUs, na Califórnia, que faz serviços de escuta de áudios para o Facebook, por exemplo, chama a empresa pelo codinome de “Prism”. O Facebook também utiliza os serviços da TaskUs para revisão de conteúdo que potencialmente violam as regras de conteúdo da rede social.

Dentre os “trabalhos fantasmas” submetidos às condições de maior desgaste e risco físico e mental certamente está o de moderação de conteúdo, que expõe cotidianamente os trabalhadores a experiências que podem desencadear transtornos e traumas. Numa reportagem realizada para o site The Verge que teve intensa repercussão, o jornalista Casey Newton investigou o cotidiano dos moderadores de conteúdo da empresa Cognizant, que presta serviço de moderação para o Facebook e conta com 800 funcionários em cidades como Tampa, Austin e Phoenix, nos Estados Unidos. O trabalho dos moderadores consiste basicamente em assistir os conteúdos reportados pelos usuários como nocivos na plataforma e decidir se de fato ferem as políticas da rede social.

Isso implica em se expor diariamente a fotos e vídeos contendo ataques violentos, abuso sexual, discurso de ódio, entre outros. Os relatos assustadores que Newton trouxe a público falam não somente do stress relacionado diretamente à tarefa de moderação, mas de um ambiente de trabalho insalubre e totalmente insano.

Os trabalhadores fantasma das maquinarias da inteligência artificial atestam a formação de um verdadeiro precariado algorítmico que figura como um prognóstico do futuro imediato da divisão social do trabalho no contexto das Big Tech, as grandes empresas associadas a plataformas de uso intensivo de dados (Morozov, 2018). Uma força de trabalho sujeita tanto aos moldes cada vez mais precários de mobilização do trabalho que caracteriza o capitalismo contemporâneo — com a multiplicação dos contratos de duração determinada, intermitente, precária; inferiorização dos trabalhadores imigrantes; desmonte dos sistemas de proteção social (Cocco, 2009) — como às condições específicas da lógica operativa dos sistemas sociotécnicos da era do algoritmo.

Agenciamentos cognitivos

A necessidade, ou conveniência econômica, de revisão humana dos algoritmos de inteligência artificial também atesta que, à diferença da fantasia da substituição da inteligência humana pela inteligência da máquina no desenvolvimento tecnocientífico, o modo mais adequado de pensar as atividades cognitivas tecnicamente mediadas hoje é como uma relação conjunta e colaborativa entre humanos e não-humanos. Reconhecer essa condição é uma dificuldade inclusive para os líderes da empresas de tecnologia, que creem, em sua maioria, que a necessidade de humanos na “linha de montagem” da inteligência artificial é apenas um estágio passageiro rumo à automatização total, como relata Gray, numa entrevista:

Se você conversar com qualquer uma dessas empresas [de tecnologia] que utilizam , a maioria delas acredita que essas tarefas serão automatizadas e que só precisam dessas pessoas por um tempo. Esse é o nosso problema atual e tem sido nosso problema historicamente desde a era industrial (Chen, 2019).

Sobre essa questão, os aportes pós-humanistas de Katherine Hayles (2017) podem contribuir com uma nova perspectiva para a construção do debate, indo além de posturas tecnofílicas ou tecnofóbicas. No lugar do binário humano/não-humano, a autora propõe a produtiva distinção entre o que chama de “cognoscentes” e “não cognoscentes”. O traço fundamental que distinguiria uns dos outros é a capacidade de interpretação e escolha (ou seleção). Dessa perspectiva tanto os atores humanos como computacionais são “cognoscentes”, ou seja, capazes de interpretar e fazer escolhas, formando o que a autora chama de “agenciamentos cognitivos” [2].

Entender um trabalho como o de supervisão humana dos algoritmos de inteligência artificial e o próprio algoritmo como um “agenciamento cognitivo” nos termos de Hayles, não significa render-se a uma leitura ingênua que exclua as relações de poder que atravessam e constituem essas práticas e tecnologias. Muito pelo contrário. Conceber esses sistemas como agenciamentos cognitivos heterogêneos permite ler mais claramente as assimetrias de poder e as implicações políticas, econômicas, sociais e culturais que apresentam, levando-nos a questionar, por exemplo, quem e quais são os atores humanos e técnicos envolvidos nessa rede, que possibilidade de interpretação e escolha é dada a cada ator específico e onde se localizam em relação à distribuição global da força de trabalho nessa cadeia de produção informacional.

Enquanto as narrativas da Singularidade Tecnológica ou da Inteligência Artificial Geral especulam sobre o momento em que as máquinas de computação se tornarão autoconscientes ou poderão aprender autonomamente qualquer tarefa cognitiva outrora exclusivamente humana, as dinâmicas mundanas da automação no capitalismo de plataforma mostram que entre o trabalho humano e o da máquina existem e possivelmente continuarão a existir diversas zonas cinzentas — espaços de convivência, negociação, hibridismos, mas também conflito.

Mais do que substituição, a questão crucial é que tipos de deslocamentos do lugar do humano e do lugar da máquina estão em jogo nesses novos arranjos sociotécnicos, e em última instância do próprio entendimento do que é humano e não-humano nesse contexto. Dar visibilidade ao precariado algorítmico que silenciosamente preenche as “lacunas” da inteligência artificial e é omitido dos discursos sobre as virtudes dos sistemas que ajudam a aperfeiçoar é também um modo de tornar visível qual o estatuto e as contradições do trabalho e da cognição na economia do algoritmo no capitalismo contemporâneo.

//

Referências

CHEN, Olivia. How Silicon Valley’s successes are fueled by an underclass of ‘ghost workers’. The Guardian, 13 de maio de 2019. Disponível em: <https://www.theverge.com/2019/5/13/18563284/mary-gray-ghost-work-microwork-labor-silicon-valley-automation-employment-interview>. 

COCCO, Giuseppe. MundoBraz. Rio de Janeiro: Civilização Brasileira, 2009.

GRAY, Mary L, SURI, Siddarth. Ghost Work: How to Stop Silicon Valley from Building a New Global Underclass. Houghton Mifflin Harcourt, 2019.

FALTAY, Paulo. Sujeitos Algorítmicos, Subjetividades Paranoicas: capitalismo de dados, influência, (in)dividualidades. In: Encontro Anual da Compós, XXVIII, 2019, Porto Alegre.

HAYLES, Katherine. Unthought: the power of the cognitive nonconscious. Chicago; London: The University of Chicago Press, 2017.

MOROZOV, Evgeny. Big Tech: a ascensão dos dados e a morte da política. São Paulo: Ubu Editora, 2018.

ROCHA, Camilo. O trabalho humano escondido atrás da inteligência artificial. Nexo, 18 de junho de 2019. Disponível em: <https://www.nexojornal.com.br/expresso/2019/06/18/O-trabalho-humano-escondido-atr%C3%A1s-da-intelig%C3%AAncia-artificial>.

//

Notas

[1] Mark Zuckerberg, no testemunho que deu no Congresso americano em abril de 2018, chegou a declarar: “Os senhores estão falando dessa teoria conspiratória de que ouvimos o que se passa no microfone (dos usuários) e o usamos para anúncios. Não fazemos isso”.

[2] A produção teórica recente de Hayles visa, em última instância, a construção de uma “teoria da cognição não consciente”. “Cognition in this view exists as a spectrum rather than as a single point; it also is defined as a process rather than an entity, so it is inherently dynamic and transformative” (AMOORE; PIOTUKH, 2019, p. 2). Por isso, a questão fundamental para ela não seria a “agência” (num sentido latourniano), presente tanto nos “cognoscentes” quanto “não-cognoscentes”; mas na distinção entre agentes (forças materiais que possuem a habilidade de atuar) e atores (cognoscentes que podem interpretar e fazer escolhas).

//

*Paula Cardoso é pesquisadora do MediaLab.UFRJ e doutoranda em Comunicação e Cultura pela UFRJ.

*Esse texto faz parte do projeto ECONOMIA PSÍQUICA DOS ALGORITMOS: RACIONALIDADE, SUBJETIVIDADE E CONDUTA EM PLATAFORMAS DIGITAIS, coordenado pela profª Fernanda Bruno, com a apoio do CNPq.