// Entrevista de Fernanda Bruno ao jornal O Globo sobre inteligência artificial

6 de abril de 2023

A coordenadora do MediaLab.UFRJ, Fernanda Bruno, concedeu entrevista à jornalista Carolina Nalin do jornal O Globo sobre inteligência artificial. A partir do questionamento sobre a carta aberta assinada por pesquisadores, especialistas e executivos do setor de tecnologia que defende uma pausa no desenvolvimento de ferramentas de IA, Bruno aponta que apesar das contradições da publicação, ela pode ser entendida como um convite para um movimento de desaceleração e a criação de um grande debate público sobre o mundo que queremos construir nos próximos anos.

A entrevista é um desdobramento de uma reportagem sobre IAs gerativas publicadas em 2 de abril. Na reportagem, Fernanda Bruno falou sobre os efeitos das IAs gerativas de imagens, que oferecem o aparato técnico necessário para a criação ágil de imagens falsas, porém realistas – o que, consequentemente, contribui para o cenário de desinformação online.

Já na entrevista completa, Bruno aponta que a cultura e a temporalidade de inovação do Vale do Silício transformou a vida social num grande laboratório e que não podemos, enquanto sociedade, repetir o que aconteceu com as redes sociais e a falta de regulamentação delas. A pesquisadora defende a adoção do princípio da precaução, como aplicado no direito ambiental, ou seja, que é preciso que a indústria da tecnologia estabeleça protocolos e princípios similares para quando não se é capaz de prever os efeitos que determinadas ferramentas tecnológicas podem produzir no mundo.

Confira os principais trechos da entrevista:

Hoje a inteligência artificial é muito usada para curadoria, recomendação, filtragem e outras tarefas que mais se assemelham à assistência. Mas agora houve um salto no tipo de IA generativa, que usa grandes modelos de linguagem. Como a IA generativa impacta a economia e as relações?

Acho que é importante a gente lembrar primeiro que a inteligência artificial já está nas nossas vidas. As mídias sociais são mediadas por algoritmos, as plataformas que a gente utiliza para consumir filmes, músicas, também. Os algoritmos dessas plataformas vêm se alimentando de muitos dados e o próximo passo, que já estava previsto, seria justamente esse: de que elas pudessem não apenas recomendar conteúdos feitos por humanos, mas produzir conteúdos. Sem dúvida é um salto.

O que quero dizer é que uma série de processos que a gente vive já são uma clara evidência de que a entrada dessas tecnologias e desses novos mediadores do consumo de informação e da vida social no cotidiano gera muitos impactos. Isso já vem acontecendo e a entrada desses novos modelos representa um salto performativo considerável. A capacidade de gerar conteúdo é muito maior, e não só no plano da linguagem de texto, mas no plano da imagem por conta do processamento automatizado de linguagem natural.

Haverá impacto, com certeza, nas relações de trabalho e no próprio campo do trabalho. Estima-se por exemplo que, globalmente, 15% dos empregos serão afetados pela automação e pela IA até 2030. Vale ressaltar que os impactos no mercado de trabalho não se dão da mesma forma em todos os lugares e ocorrem de maneira muito desigual. No Brasil, 27% dos empregos estariam em risco até essa data.

Já existe muito processo automatizado na atividade de gestão e de relação com clientes. Hoje temos vários assistentes virtuais no nosso cotidiano, o que tira emprego por um lado, precariza o atendimento por outro e cria divisões. Por exemplo: as pessoas que tem mais poder aquisitivo tem direitos à assistência humana, enquanto a maioria da população fica relegada à assistência automatizada com um robô que todo mundo sabe que é infernal. A gente também já vê isso entrando nos serviços públicos e começando a atuar no acesso a direitos, o que é preocupante. Ainda que represente uma possibilidade de enxugar gastos, em certas áreas isso pode significar precarização.

Em resumo: Esse salto da IA é em certa medida “quântico”, mas não veio do nada. Ele já vem sendo alimentado por uma cultura tecnológica que está concentrada nas grandes corporações de tecnologia – e que está sendo, inclusive, guiado por essas corporações e não por políticas públicas, pelas universidades, pelos financiamentos de pesquisas com mais responsabilidade pelo bem comum e manutenção da democracia.

Essa corrida tecnológica ficou na mão de atores que estão competindo por capital e por performance e isso desencadeou problemas que já vivemos hoje com essas grandes plataformas, que estão colocando o avanço da tecnologia na vida social a serviço de uma agenda que é muito restrita.

Como você avalia essa carta assinada tanto por pesquisadores quanto por executivos do setor, incluindo o Elon Musk, pedindo uma pausa no desenvolvimento de novas ferramentas de IA?

Tem signatários ali que fazem parte dessa cultura de aceleração e de corrida tecnológica, então tem um certo cinismo ou pelo menos alguma contradição. Mas acho que a sinalização que a carta faz é para uma desaceleração. Não é uma pausa na pesquisa, mas uma pausa nesse modelo de corrida competitiva irresponsável em prol de inteligências artificiais cada vez mais performativas, disruptivas e lucrativas.

É um bom chamado que talvez rebata sobre outras iniciativas que estão muito presentes no nosso cotidiano e que não chamaram muita atenção, e que só paramos para pensar no impacto delas quando os problemas já estavam dados de forma massiva – como é o caso do impacto que os algoritmos dessas grandes plataformas tem no nosso modo de consumir informação e de exercer a democracia. Vejo como uma pausa para produzir protocolos mais seguros.

Nós humanos, de modo geral, temos no nosso imaginário ao longo de muitos séculos, uma visão de que a tecnologia é uma ferramenta neutra que permite alcançar certos fins. A gente não lida com ela como sendo capaz de produzir mudanças inesperadas. Só que as tecnologias são seres relacionais e, uma vez estando na relação com determinado ambiente, com outras máquinas, outros humanos e instituições, elas vão produzindo efeitos que não são claros e nem são completamente controlados por aqueles que as programaram.

Essa cultura de competição tecnológica do Vale do Silício transformou a vida social em um grande laboratório onde as tecnologias foram sendo testadas diretamente na sociedade. O que essa carta mostra é que nós não podemos testar essas tecnologias muito transformadoras no social sem saber os efeitos que vão produzir. É preciso criar protocolos de segurança. É preciso desacelerar e estabelecer um princípio como o que foi usado para políticas ambientais, que é o princípio de precaução.

Esse princípio considera que, quando você não é capaz de prever os efeitos que uma determinada tecnologia ou que determinada intervenção científico-tecnológica produz no mundo, você adota o princípio de precaução, você adota o princípio de que você não deve implementar aquilo porque você não tem como controlar.

E eu acho que é justamente o que acontece com a forma como esse tipo de Inteligência Artificial o está sendo posta no mundo. Os efeitos são claramente imprevisíveis e incontroláveis. Isso já é motivo suficiente, ao meu ver, para desacelerar e criar um grande debate público envolvendo diversos setores da sociedade para se estabelecer protocolos mais seguros de produção e de implementação dessas tecnologias – considerando inclusive que algumas talvez não devam existir.

Isso já foi visto, pelo menos, desde a bomba atômica. Desde a Segunda Guerra Mundial já se criou um alerta em relação a isso, mas parece que o mundo esqueceu daquela devastação e voltou a operar nessa lógica de que, se eu consigo fazer, eu devo fazer. Alimenta-se um imaginário de que a tecnologia naturalmente sempre irá trazer algum tipo de progresso e desenvolvimento.

Devemos aprender com o passado e com as mudanças recentes que uma série de tecnologias produziram na nossa vida social.

Diante de todas essas questões que você trouxe, incluindo essa cultura de corrida tecnológica, como é possível regular sem sufocar a inovação?

A gente não está falando aqui em nenhum momento, mesmo porque isso não existe, de que a inteligência artificial em si é boa ou má. O que a gente está criticando aqui é um modelo de produção e implementação da inteligência artificial. Temos uso da IA para o monitoramento das mudanças climáticas e isso e nesse ponto ela já tem um uso fabuloso, assim como em diversos setores da ciência.

O que acho que a gente precisa – e a carta sinaliza isso – é de um debate amplo sobre o mundo que a gente quer criar e onde a gente quer viver. Pois é disso que falamos quando tratamos de tecnologia: de fabricação de mundos. Precisamos perguntar com quais máquinas queremos viver. Temos que identificar quais tecnologias devem ser desenvolvidas em favor do bem comum, da democracia, da saúde coletiva, do planeta e de uma série de valores que a sociedade preza. E quais tecnologias nós acreditamos que sejam disruptivas e arriscadas e realmente imprevisíveis.

Não é um jogo de tudo ou nada. Um equilíbrio precisa ser buscado. É possível criar meios de revisão contínua, de análise dos impactos, efeitos e protocolos de segurança etc. Na ciência, tem regulação. Quando você usa IA na saúde, na medicina, têm protocolos. Mas quando você usa o ChatGPT, não têm regulação nem protocolo? Eles estão fazendo ciência, interferindo na sociedade, então por que há uma exceção nessa zona?

Clique aqui para ler a matéria na íntegra.