O
desgastante trabalho humano por trás do ChatGPT
Se você
já "conversou" com o ChatGPT ou outra
ferramenta semelhante, pode ter achado, em um primeiro momento, que se trata de
uma tecnologia quase mágica.
Como é
possível que uma máquina entenda perguntas feitas por humanos, interprete seu
conteúdo e responda com informações estruturadas e em linguagem humana, em
questão de segundos, com evolução constante na qualidade das respostas?
Essa
percepção de algo quase "sobrenatural" não é por acaso.
Sam Altman, CEO da empresa
responsável pela tecnologia, a OpenAI, faz uso de termos como esse para
descrever seus produtos.
No ano
passado, ao anunciar novidades na plataforma X (ex-Twitter), ele escreveu que o
que a empresa estaria prestes a apresentar "parecia mágica".
Em um
vídeo de apresentação da ferramenta de conversa por voz com o ChatGPT, uma
porta-voz da empresa afirmou: "isso parece tão mágico, é
maravilhoso."
Mas o
sucesso comercial da OpenAI não vem do além.
Está
ligado, em boa parte, com a exploração de pessoas e recursos naturais bastante
reais, envolvendo cadeias produtivas complexas e opacas, que terceirizam
responsabilidades e exploram desigualdades estruturais.
Quem
diz isso é Karen Hao, autora do livro Empire of AI (Império da
IA, ainda sem edição no Brasil), lançado em maio, em entrevista cedida à BBC
News Brasil em sua sede, em Londres.
A
autora realizou cerca de 300 entrevistas, que ajudam a destrinchar o impacto
global da empresa por trás do chatbot mais famoso do mundo.
Mais do
que ouvir executivos, Karen Hao se dedicou a investigar os impactos da OpenAI
fora do Vale do Silício, como a crescente demanda por data centers,
infraestrutura essencial para processar os bilhões de dados usados no
treinamento e operação de sistemas como o ChatGPT, e que consomem milhões de
litros de água e enormes quantidades de energia.
"Essas
empresas lucram mais, se enriquecem mais, quando há um crescente burburinho em
torno da tecnologia e quando há a percepção de que a IA é mágica", disse
ela à BBC News Brasil.
"Não
é tão emocionante quando os consumidores estão usando uma tecnologia que sabem
que envolve exploração de mão de obra."
Hao
investigou a contratação indireta de milhares de trabalhadores precarizados,
expostos ao pior tipo de conteúdo da internet para treinar os filtros da
ferramenta.
Para
isso, viajou do Quênia à Colombia e entrevistou pessoas que, em um cenário de
crise econômica, aceitaram trabalhar nesse mercado de anotação de dados para a
indústria de IA.
Foi
também ao Chile, onde conheceu ativistas preocupados com o aumento de data
centers e o crescente consumo de recursos hídricos.
O
"império" que dá título ao livro está ligado a essas relações de
exploração econômica e à concentração de poder.
"Precisamos
pensar nessas empresas como novas formas de império. Elas ganharam uma
quantidade extraordinária de poder político e econômico, a ponto de
praticamente não existir mais nenhuma força superior no mundo capaz de conter
seu crescimento ou interesses próprios.", disse.
·
Do laboratório de pesquisa sobre IA ao 'império'
Hao
teve acesso inédito à OpenAI ainda em 2019, antes do lançamento oficial do
ChatGPT, quando ela estava escrevendo um perfil sobre a empresa em ascensão
para a MIT Technology Review, publicação dos EUA que analisa como as novas
tecnologias impactam a sociedade, a política e os negócios.
"Nós
nunca demos tanto acesso a alguém antes", disse a ela um dos entrevistados
à época.
Um dos
pontos a seu favor para que a empresa concordasse com as entrevistas era sua
formação técnica: Hao é graduada em engenharia mecânica pelo MIT e já trabalhou
em uma startup no Vale do Silício, o que poderia ajudá-la a entender em mais
detalhes o progresso tecnológico que estavam fazendo à época.
"Originalmente
(a OpenAI) foi concebida como um laboratório de pesquisa em IA, sem qualquer
tipo de interesses comerciais, sem qualquer intenção de desenvolver
produtos", disse.
Esse
laboratório tinha uma missão: assegurar que a chamada AGI, ou inteligência
artificial geral — conceito abstrato de uma máquina que possui a mesma
sofisticação da mente humana — fosse usada em benefício da humanidade.
A
reportagem, publicada em fevereiro de 2020, afirma que havia um
"descompasso" entre a imagem benevolente e colaborativa passada pela
organização e o que acontecia nos bastidores.
"Percebi
que a organização defendia publicamente valores que na prática se manifestavam
de forma diferente. Publicamente diziam ser uma organização sem fins lucrativos
e sem intenção comercial."
Mas
logo ela começou a perceber que "provavelmente precisariam se
comercializar rapidamente", já que haviam recebido um investimento de um
bilhão de dólares da Microsoft e precisariam dar retorno sobre esse
investimento.
Hao
também notou um ambiente de muito sigilo.
"Diziam
que eram colaborativos e transparentes mas, na realidade, eram muito
reservados. Executivos enfatizavam que precisavam ser os primeiros no programa
de pesquisa deles para cumprir sua missão: garantir que a chamada inteligência
artificial geral (ou AGI - artificial general intelligence)
beneficie toda a humanidade."
A
resposta à reportagem foi o silêncio, conta. "Ficaram profundamente
insatisfeitos com esse resultado e acabaram me proibindo de falar com a empresa
por três anos."
Com o
livro não seria diferente: Hao diz que a empresa preferiu não colaborar com sua
apuração.
Em uma
postagem na rede social X em abril deste ano, antes da publicação de Empire
of AI, Sam Altman escreveu: "estão para sair alguns livros sobre a
OpenAI e sobre mim. Nós só participamos de dois", sem citar o livro de
Hao.
Ele
acrescentou que "nenhum livro vai acertar tudo, especialmente quando
algumas pessoas estão tão determinadas a distorcer as coisas".
Hao
entendeu aquilo como uma crítica. "Ficou bastante claro para mim que ele
estava tentando afastar as pessoas do meu livro."
Em
resposta a um pedido da BBC News Brasil para se posicionar sobre as críticas
contidas no livro e na entrevista, um porta-voz da OpenAI enviou por e-mail
este mesmo post de Altman, sem outras informações.
·
Moderação 'grotesca' de conteúdo abusivo
A
moderação de conteúdo para IA generativa, como a do ChatGPT, não é exatamente a
mesma que era feita em conteúdo gerado por usuários em redes sociais, como do
Facebook,
segundo Hao.
Isso
porque trabalhadores terceirizados filtram textos que nem sequer foram
produzidos por uma pessoa real, mas sim gerados antecipadamente por IA.
"A
OpenAI solicitou a seus próprios modelos que imaginassem alguns dos piores
cenários de abuso de texto, discurso de ódio de texto, assédio, texto racista,
sexista, para dar aos trabalhadores, para que houvesse uma distribuição mais
ampla das piores coisas que eles pudessem então filtrar", explica Hao.
A
prática não é exclusiva de uma ou outra empresa.
Um
artigo publicado no ano passado
por pesquisadores da Microsoft (empresa que, vale lembrar, é uma das maiores
parceiras da OpenAI), ao revisar a literatura recente sobre o assunto, afirma
que a tendência de ignorar a importância do trabalho humano em sistemas de IA é
"comum". E que há um padrão no Vale do Silício de terceirizar esse
tipo de atividade de filtrar conteúdo nocivo para fornecedores terceirizados,
"geralmente no exterior".
"Quando
a mão de obra é transferida, especialmente de forma fragmentada, para uma força
de trabalho contingente distribuída globalmente, torna-se mais difícil
rastreá-la e mais complicado reivindicar proteções trabalhistas para ela",
diz o artigo.
·
'O que recebi em troca valeu o que perdi?'
Um dos
trabalhadores retratados no livro é Mophat Okinyi, queniano contratado para
atuar na moderação de conteúdo que seria usado pela OpenAI. Integrava a equipe
responsável por revisar material sexual.
Sua
função era ler e classificar textos distinguindo, por exemplo, entre erotismo
consensual (considerado aceitável) e abuso sexual, incluindo casos envolvendo
crianças (inadmissível).
"Ele
passou tanto tempo lendo sobre abuso sexual e pedofilia que isso mudou
completamente sua personalidade", contou a autora.
Okinyi
desenvolveu sintomas de trauma psicológico, mas não sabia como explicar à
esposa o que estava acontecendo. "Como dizer que passo o dia inteiro lendo
conteúdo sexual no trabalho? Isso nem soa como um emprego de verdade",
relatou, conforme o livro.
Na
época, o ChatGPT ainda não havia sido lançado, e ele decidiu guardar tudo para
si.
Enquanto
trabalhava no projeto, vivia com a esposa. As tarefas se tornaram cada vez mais
pesadas: ocupavam noites, fins de semana e envolviam conteúdos cada vez mais
extremos, como violência sexual entre familiares e zoofilia.
Certo
dia, voltando para casa, recebeu uma mensagem da esposa pedindo que passasse no
mercado. Quando chegou, ela não estava mais lá. Em seguida, recebeu uma
mensagem: "Não reconheço mais o homem em que você se tornou. Não vou
voltar."
Quando
o ChatGPT foi oficialmente lançado, em novembro de 2022, Okinyi disse à Hao ter
sentido orgulho de ter contribuído para tornar a ferramenta mais segura.
Mas a
pergunta permaneceu: "O que recebi em troca valeu o que perdi?"
·
Terceirização do 'serviço sujo'
Okinyi
e outros trabalhadores como ele não prestavam serviço diretamente para a
OpenAI, mas para empresas terceirizadas que operam também para várias outras
companhias.
"Não
é bom para a imagem das empresas que os consumidores saibam que alguns dos
produtos que estão comprando podem ter esse tipo de trabalho sujo sendo feito
nos bastidores", avalia Hao.
"A
razão pela qual muitas pessoas acabam não percebendo essas cadeias de
suprimentos complexas é que, em parte, as empresas tentam se distanciar delas.
Elas usarão uma empresa intermediária para construir seus centros de dados ou
contratar trabalhadores terceirizados", diz Hao.
Quando
o caso dos trabalhadores quenianos operando para a OpenAI foi descoberto pela
imprensa, a empresa conseguiu repelir a culpa.
"Eles
disseram que isso não era problema deles, que não foram eles que contrataram
diretamente esses trabalhadores", lembra a autora. "Mas isso não faz
muito sentido, porque todo o trabalho, todo o pagamento, era direcionado e
ditado pela OpenAI."
·
Trabalhadores instruídos, com boa internet e de baixa
renda
Uma reportagem publicada em
junho pela BBC News. Brasil mostrou que esse mercado de treinar IAs e moderar
conteúdo, também conhecido como 'microtrabalho', tem sido executado também no
Brasil, principalmente por mulheres.
Um
estudo do Laboratório de Trabalho, Plataformização e Saúde, vinculado à
Universidade Estadual de Minas Gerais, detectou que 63% da mão de obra era
feminina.
A
pesquisa mostra que um dos motivos é a dificuldade de conseguir um emprego no
país, mesmo com ensino superior completo, bem como a necessidade de cuidar dos
filhos ou outras pessoas da família.
Hao
identifica três características em comum entre esses novos trabalhadores para o
treinamento da IA: são instruídos, têm ótima conectividade com a internet e
baixa renda.
"São
as condições que as empresas de IA descobriram que formam os melhores
trabalhadores, porque eles executam bem as tarefas, são treinados muito
rapidamente e estão dispostos a fazer isso por muito, muito, muito pouco
dinheiro."
Um dos
argumentos recorrentes dos que apoiam esse tipo de trabalho é que, sem eles,
provavelmente estas pessoas teriam de se sujeitar a condições ainda piores para
se sustentar.
Um
empresário do setor é citado no livro por uma frase do tipo. Ele disse que
"se você pudesse estar puxando um riquixá (veículo de duas rodas
puxado por um humano) ou rotulando dados em um internet café com
ar-condicionado, este último é um trabalho melhor".
Para
Hao, as empresas não podem usar isso como desculpa para desrespeitar direitos
humanos.
"Por
que eles não estão pagando aos trabalhadores um salário justo para realmente
fazer um trabalho que é fundamental para que eles consigam lucrar seus
bilhões?", questionou, lembrando que uma das premissas da OpenAI é
justamente desenvolver uma tecnologia que possa ser usada pela humanidade para
gerar mais riqueza.
·
Data centers e colonialismo
Em maio
deste ano o ministro da Fazenda, Fernando Haddad, apresentou em Los Angeles,
nos EUA, uma política nacional de data centers que prevê a desoneração de
investimentos no setor.
Esses
centros, essenciais para o funcionamento de serviços digitais como IA, redes
sociais e bancos, consomem grandes volumes de água e energia. E estão sendo
cada vez mais demandados pelo crescimento de serviços digitais.
Data
centers existem há décadas, mas até o século passado ficavam limitados a
espaços menores, descreve Karen Hao no livro.
A
partir dos anos 2000, explica Hao, gigantes da tecnologia começaram a
consolidar toda a sua infraestrutura em enormes armazéns de servidores em
comunidades rurais.
Na era
do ChatGPT isso ganhou uma escala ainda maior. Alguns números recentes citados
em um relatório da Agência
Internacional de Energia (AIE), organização vinculada à OCDE, ajudam a
ilustrar:
- Um
centro de dados típico focado em IA consome tanta eletricidade quanto 100 mil
residências. Mas os maiores que estão sendo construídos atualmente consumirão
20 vezes mais.
- O
treinamento do modelo GPT-4, da OpenAI, consumiu energia equivalente a 70,5 mil
casas de países em desenvolvimento.
- A
geração por IA de um vídeo curto e de baixa qualidade consome a mesma energia
que carregar um laptop duas vezes.
Hao faz
uma comparação ainda mais simples no livro: o consumo de energia de uma
pergunta ao chat equivale a dez vezes o que custaria para fazer uma pesquisa no
Google.
Ainda
assim, a entrada de investimento estrangeiro pode ser um atrativo para
governantes dos países que receberão estes data centers, diz a autora.
"Muitos
governos, especialmente no sul global, acabam vendo essa indústria como uma
oportunidade", afirma, seja de receber investimentos ou de "não ficar
pra trás" na cadeia de suprimentos da IA.
"Mas
acho que o que não é dito explicitamente é que muitos governos ainda vivem sob
o legado do colonialismo e sentem que precisam se curvar para conseguir
investimento estrangeiro direto."
O
Ministério da Fazenda disse à BBC News Brasil que a construção do decreto tem
participação do Ministério do Meio Ambiente e que a regulamentação
"estabelecerá requisitos ambientais e de sustentabilidade que deverão ser
cumpridos pelas empresas que queiram se beneficiar da nova política."
Destacou
que o principal objetivo do Redata, como foi batizado o programa, é garantir a
soberania digital do Brasil, "incentivando o processamento de dados
nacionais em data centers localizados no território brasileiro."
O
governo federal afirma que "cerca de 60% da carga digital brasileira é
processada no exterior, principalmente nos Estados Unidos, sendo o diferencial
de custo o principal fator para essa situação. A política busca reverter esse
cenário e fortalecer a infraestrutura digital nacional."
·
O data center do Google que ativistas conseguiram barrar
Karen
Hao traz em seu livro um exemplo concreto de resistência aos avanços dos data
centers a qualquer custo: em 2019, uma estrutura desse tipo começou a ser
construída para o Google em Cerrillos, comunidade de Santiago, no Chile.
Um
grupo de ativistas local, o Mosacat (Movimiento Socioambiental Comunitario por
el Agua y el Territorio - Chile) descobriu que a estrutura usaria 169 litros de
água potável por segundo para resfriar seus servidores, mais de 1 mil vezes a
quantidade consumida por toda a população da região — cerca de 89 mil pessoas,
num país com histórico de seca.
O grupo
tentou contestar o projeto primeiro com um parceiro local do Google, uma
empresa de investimentos, que negou que água potável seria usada.
Os
ativistas decidiram então recorrer ao governo local e o assunto foi parar na
divisão do Google no Chile e, mais tarde, na sede da empresa, nos EUA.
No
mesmo ano a big tech enviaria dois engenheiros e um advogado à cidade para
apresentar o projeto à comunidade.
Manifestantes
colocaram placas de protesto em todo o caminho que eles percorreriam até chegar
ao local do encontro.
Segundo
os ativistas, os representantes da empresa sequer falavam espanhol. A reunião
foi entendida como uma espécie de intimidação contra a comunidade.
O data
center acabou não sendo instalado.
O
Google anunciou no ano passado que trabalharia "do zero" os planos
para construí-lo depois de as preocupações com o impacto ambiental terem
surgido, segundo noticiou a agência Reuters.
"Quando
falamos com os cidadãos afetados, com as comunidades que têm suas terras e seus
recursos de água doce tomados para a construção, alimentação e operação desses
centros de dados, essas pessoas não acham que é um bom negócio", afirma
Hao.
"Uma
das coisas que o governo chileno acabou fazendo, por causa de tanto ativismo e
tanta oposição, foi a criação de uma mesa redonda onde convidam representantes
de empresas, representantes governamentais e moradores da comunidade local,
para discutir se há maneiras de tornar esse desenvolvimento de centros de dados
mutuamente benéficos."
·
IA não é 'inevitável', mas produto de 'escolhas humanas'
Hao
destaca que há iniciativas de resistência à adoção sem críticas da inteligência
artificial generativa e também interesse por sua regulamentação.
"Estamos
vendo movimentos em todo o mundo. Artistas e escritores que estão processando
essas empresas e reivindicando sua propriedade intelectual. Ativistas que estão
resistindo ao desenvolvimento de data centers. Estudantes e professores
debatendo abertamente que talvez não queiram o ChatGPT nas escolas."
Ela
acredita que o desenvolvimento da IA, como está colocado hoje, não é
inevitável.
"É
um produto de escolhas humanas. Isso significa que você, como um ser humano com
escolhas, pode ter um papel ativo na formação do futuro desta tecnologia."
"Sempre
que você se depara com a narrativa de que as IAs são inevitáveis, de que se
você não adotar essa tecnologia será substituído por alguém que a adote, saiba
que essa é uma narrativa enraizada, perpetuada e amplificada pelas empresas que
as produzem. É um discurso que serve a elas. Quanto mais as usamos para
diferentes tarefas, mais dados elas obtêm para automatizá-las."
A
autora diz não ser totalmente contra o uso desse tipo de tecnologia.
"Você
possa escolher modelos de código aberto, que não usam desse tipo de ideologia
imperial sob a qual a OpenAI ou o Google podem estar operando."
Aos
formuladores de políticas públicas, a autora reforça que as empresas de IA
ainda dependem de uma cadeia global de suprimentos e não operam sozinhas.
"Há
dados aos quais eles precisam ter acesso. Há terras que eles precisam para
construir seus data centers, além da energia e água para mantê-los
funcionando."
Por
isso, argumenta, autoridades não deveriam temer a regulação dessas empresas por
medo de perder acesso aos serviços.
"Os
governos precisam reconhecer que eles possuem e governam coletivamente todos os
recursos que essas empresas precisam para produzir as tecnologias em primeiro
lugar. As empresas terão, assim, que ajustar sua abordagem para algo que seja
benéfico para todos. Isso inclui aumentar as proteções de dados, os direitos de
propriedade intelectual."
Fonte:
BBC News Brasil

Nenhum comentário:
Postar um comentário