A
empresa de IA que enfrentou o Pentágono nos EUA — e por que isso afeta o mundo
todo
Enquanto
o mundo observava a operação dos EUA na Venezuela e como a guerra com o Irã se
tornava inevitável, uma batalha se desenhava em Washington — um alerta de que o
futuro profetizado por anos, sobre o papel da inteligência artificial nas
guerras, já havia chegado.
Uma
empresa de inteligência artificial do Vale do Silício se recusou a seguir
ordens do Pentágono (o departamento de Defesa dos EUA). E o Pentágono a tratou
como se fosse inimiga do Estado. Mesmo assim, sua tecnologia de IA continuou
sendo usada porque as Forças Armadas dos EUA não podiam se dar ao luxo de ficar
sem ela.
Foi o
que aconteceu entre a Anthropic e o departamento de Defesa nas últimas semanas.
E embora tudo pareça uma mera disputa corporativa, é muito mais do que isso. É
a primeira vez que uma empresa de IA confronta um aparato militar, recusando-se
a eliminar limites éticos de sua tecnologia.
O
confronto deixou no ar questões que preocupam a todos: até que ponto os humanos
já estão delegando decisões irreversíveis e letais a máquinas? Quem decide como
a IA é usada?
Essas
não são perguntas retóricas. Especialistas da Universidade de Oxford alertam
que este episódio "revela lacunas de governança antigas na integração da
IA em operações militares. Essas lacunas são anteriores neste governo (dos EUA)
e persistirão após a controvérsia atual".
Por que
— se a humanidade teme chegar a este ponto há tanto tempo — ainda existe um
vácuo tão grande na governança da IA? É um vácuo que Logan Graham, líder da
Equipe Vermelha da Anthropic, que analisa cenários negativos envolvendo
tecnologia — de ataques cibernéticos a ameaças à biossegurança — conhece muito
bem.
"A
intuição de algumas pessoas, por terem crescido em um mundo pacífico, é de que
em algum lugar existe uma sala cheia de adultos que sabem como resolver
tudo", disse ele à revista Time. "Não existem esses grupos de
adultos. Não existe nem mesmo uma sala. A responsabilidade é sua."
<><>
Pergunta difícil
Em
algum momento durante a operação que culminou em 3 de janeiro com a captura do
então presidente venezuelano Nicolás Maduro, a ferramenta Claude, da Anthropic,
foi usada para processar dados e auxiliar na tomada de decisões.
Essa
informação foi divulgada independentemente pelo Wall Street Journal e pelo site
Axios, citando fontes com conhecimento direto dos eventos, e posteriormente
confirmada pela revista Time, que publicou um extenso perfil da Anthropic, a
empresa sediada em San Francisco que criou o Claude.
Nem o
departamento de Defesa nem a Anthropic confirmaram oficialmente essa
informação. Mas o que aconteceu em seguida está documentado e é muito mais
revelador do que o próprio evento.
Após a
captura de Maduro, um executivo da Anthropic contatou a Palantir — a empresa de
análise de dados que atua como intermediária tecnológica entre o Vale do
Silício e o governo dos EUA — e perguntou: nosso software foi usado nessa
operação?
A
pergunta fez soar um alarme em Washington. Emil Michael, Subsecretário de
Defesa e Diretor de Tecnologia do Pentágono, disse que isso gerou profunda
preocupação: será que a Anthropic, em um conflito futuro, poderia
"desligar seu modelo no meio de uma operação" — ativar algum
mecanismo de rejeição — "e colocar vidas em risco"?
A
Anthropic contesta essa interpretação: a empresa afirma que nunca tentou
limitar o uso do Pentágono em nenhum caso específico e que a pergunta era
rotineira.
Mas em
seguida, houve uma rápida escalada de tensões.
O
Pentágono exigiu que a Anthropic concedesse acesso irrestrito à sua tecnologia
para "todos os usos legais". A Anthropic recusou. Pete Hegseth,
Secretário de Defesa de Trump, classificou a Anthropic como um "risco para
a cadeia de suprimentos", um rótulo historicamente reservado para empresas
ligadas a rivais estrangeiros como a Huawei ou a Kaspersky, e não para empresas
americanas que simplesmente discordam do governo.
A
Anthropic processou o Pentágono por exceder sua autoridade e salvaguardas
éticas, violando direitos fundamentais. Vários especialistas jurídicos
acreditam que a empresa tem grandes chances de vencer a dispta jurídica.
O
presidente Donald Trump, por sua vez, ordenou que todas as agências federais
parassem de usar a tecnologia da Anthropic. E coroou a controvérsia com uma
mensagem na plataforma Truth Social, escrita inteiramente em letras maiúsculas:
"Os EUA jamais permitirão que uma empresa progressista ('woke') e radical
de esquerda dite como nossas grandes forças armadas lutam e vencem
guerras."
Em seu
vocabulário e no de seus seguidores, "woke" é o maior dos insultos,
um rótulo depreciativo para descrever ideias ou políticas progressistas
relacionadas à identidade de gênero, desigualdade ou justiça social.
<><>
Linhas vermelhas
A
Anthropic tem uma história singular.
Foi
fundada em 2021 por ex-pesquisadores da OpenAI com a premissa explícita de que
a inteligência artificial representa um dos maiores riscos existenciais para a
humanidade e que, precisamente por essa razão, é fundamental que aqueles que a
desenvolvem sejam pessoas comprometidas em fazê-lo com segurança.
Em
julho de 2025, a Anthropic assinou um contrato de US$ 200 milhões com o
Departamento de Defesa, o primeiro desse tipo: um laboratório de IA que integra
seus modelos em fluxos de trabalho de missão em redes classificadas.
O CEO
da Anthropic, Dario Amodei, justificou isso em um texto publicado em janeiro
deste ano. Ele escreveu que a Anthropic apoiava as forças militares e de
inteligência dos EUA porque "a única maneira de responder a ameaças
autocráticas é igualá-las e superá-las militarmente".
Ele
acrescentou: "A formulação a que cheguei é que devemos usar IA para a
defesa nacional em todas as suas formas, exceto aquelas que nos tornariam mais
parecidos com nossos adversários autocráticos".
Consequentemente,
o contrato com o Pentágono estabeleceu duas "linhas vermelhas": o
Claude não poderia ser usado para vigilância doméstica em massa ou para armas
totalmente autônomas.
Esses
limites invioláveis não são arbitrários; eles se baseiam em um documento da
empresa que serve como sua "alma". Seu objetivo declarado é
"prevenir catástrofes em larga escala", incluindo a possibilidade de
a IA ser usada por um grupo humano para "tomar o poder de forma ilegítima
e não colaborativa".
Amodei
também argumentou perante o Pentágono que "os sistemas de IA de última
geração simplesmente não são confiáveis o suficiente para alimentar armas
totalmente autônomas".
Neste
contexto, não se trata de armas que decidem por conta própria a quem matar.
"Autonomia" significa que um sistema pode atingir certos objetivos
sozinho — ou com supervisão humana mínima — em ambientes complexos.
Mas
existem sistemas automatizados que ajudam a tomar decisões sobre ataques.
Especialistas em inteligência artificial alertam para um problema conhecido
como "viés de automação": quando as regras de uso são vagas, os
humanos tendem a confiar nas recomendações da máquina mais do que deveriam.
A IA
não substitui o julgamento humano de uma vez: ela o corrói aos poucos, até que
o operador pare de questioná-lo. Em uma situação tensa, se o sistema — que você
sabe que analisou uma imensa quantidade de informações — aponta para alguns
pixels na tela como um alvo urgente, é fácil aceitar sua recomendação sem muita
hesitação.
Ou se
um sistema de reconhecimento facial identifica alguém em uma multidão, um
agente de segurança provavelmente confiará no resultado e procederá com a
prisão.
Existem
precedentes concretos: em diversas ocasiões documentadas, vários departamentos
de polícia nos EUA acabaram prendendo pessoas erradas.
Isso
coincide com a outra linha vermelha que enfureceu o governo Trump: a vigilância
em massa, que afeta o cotidiano de pessoas que não estão em nenhuma zona de
guerra.
Cabe
ressaltar que a Anthropic se opôs especificamente à vigilância em massa de
cidadãos americanos. Sua posição não é universalista. Mas o princípio por trás
dela tem um alcance mais amplo. E ganha urgência porque, paralelamente a esse
conflito, o governo dos EUA anunciou planos para usar IA por meio da Palantir
para apoiar as operações do ICE — a agência de imigração — rastreando a
localização em tempo real e o histórico financeiro de pessoas sem documentos.
A
vigilância em massa, em diferentes graus e em diversas populações, já existe. A
questão não é mais se ela ocorre, mas sim quantos controles ainda existem sobre
como ela é usada.
Nesse
contexto, as "linhas vermelhas" da Anthropic não são apenas filosofia
corporativa: são, por ora, um dos poucos mecanismos concretos de controle e
equilíbrio existentes.
O
problema é que as restrições são tão fortes quanto o mecanismo que as impõe.
E
quando o Pentágono rejeitou esses limites e exigiu acesso irrestrito, a
Anthropic se viu sozinha para manter sua posição, sem um arcabouço legal para
apoiá-la e sem regulamentação internacional para protegê-la, tendo apenas suas
cláusulas contratuais como escudo.
<><>
O que é considerado legal?
A
relutância do departamento de Defesa em permitir que uma empresa privada
imponha limites é, para muitos, justificada.
Embora
as recentes operações militares em cidades dos EUA, na Venezuela e no Irã
tenham sido conduzidas com mínima consulta ao Congresso, o uso de IA é tão
crucial que deveria ser regulamentado por leis aprovadas por representantes
democraticamente eleitos, argumentam alguns.
Mas o
Legislativo ainda não aprovou leis sobre o assunto. Assim, a exigência do
Pentágono pela liberdade de usar o Claude para "todos os usos
lícitos" parece razoável até que se questione o que, exatamente, é lícito
nesse contexto.
Não há
uma definição consensual no direito internacional sobre o que constitui uma
arma autônoma letal. O direito internacional humanitário — as normas que regem
os conflitos armados desde as Convenções de Genebra — foi construído em torno
de decisões humanas: um soldado apertando o gatilho e um comandante dando uma
ordem.
Esses
marcos não contemplam sistemas que detectam, selecionam e eliminam alvos com
mínima ou nenhuma intervenção humana direta. É o que os especialistas chamam de
"vácuo de responsabilidade": uma deficiência crítica em que as
estruturas legais existentes não conseguem determinar quem é o responsável
quando um sistema autônomo comete uma violação.
Se um
drone com inteligência artificial matar civis, quem será responsabilizado? O
programador? O comandante? A empresa que fabricou o sistema? O direito
internacional não oferece uma resposta clara. E, na ausência de resposta,
"uso lícito" significa, na prática, o que cada Estado decidir que
significa.
Nesse
contexto, surge uma questão delicada: essa discussão está sendo a feita no
tempo certo? A resposta talvez seja: não oportuna o suficiente para ser
preventiva; mas ainda assim, sim, oportuna o suficiente para ser útil.
O
debate formal sobre armas autônomas começou em 2013. Onze anos depois, o
resultado são diretrizes voluntárias. Em 2024, durante uma conferência
internacional em Viena, o Ministro das Relações Exteriores da Áustria
incentivou o progresso com uma declaração inquietante: "Este é o momento
Oppenheimer da nossa geração".
Ele se
referia ao momento em que a humanidade tomou consciência do poder destrutivo da
bomba atômica: como naquela ocasião, a tecnologia já existe, e agora é preciso
decidir como controlá-la.
Só que,
diferentemente das armas nucleares — caras, escassas e com uma marca
inconfundível —, os sistemas autônomos são baratos, produzidos em massa e
difíceis de rastrear. Portanto, são estruturalmente mais difíceis de controlar
por meio de tratados.
Naquele
mesmo ano de 2024, a Assembleia Geral da ONU adotou uma resolução criando um
fórum, sob supervisão das Nações Unidas, para discutir os desafios e
preocupações com o uso de armas autônomas e o que fazer sobre isso, com 166
votos a favor. Apenas três países votaram contra: Rússia, Coreia do Norte e
Belarus.
O voto
mostra que a preocupação é quase universal. O que falta é um tratado
vinculativo e mecanismos de aplicação, algo que o Secretário-Geral da ONU,
António Guterres, vem defendendo há alguns anos. Alguns especialistas, no
entanto, temem que, como aconteceu com outras armas, tal tratado só seja
firmado após uma catástrofe.
<><>
A lógica da velocidade
Enquanto
advogados e diplomatas debatem, engenheiros constroem. E o que eles constroem
já está sendo usado.
O
general americano Stanley McChrystal, ex-comandante das forças americanas e da
Otan no Afeganistão, certa vez resumiu isso de forma contundente: nunca antes
na história alguém foi capaz de ver, decidir e matar uma pessoa do outro lado
do mundo em questão de minutos.
Essa
afirmação agora precisa ser atualizada. A questão não é mais apenas ver,
decidir e matar, mas até que ponto estamos dispostos a delegar a decisão a uma
máquina.
Essa
transição já está sendo testada no campo de batalha. Na Ucrânia, em dezembro de
2024, as forças do país realizaram a primeira operação totalmente não tripulada
perto de Kharkiv: dezenas de veículos terrestres autônomos e drones atacaram
posições russas sem nenhum soldado em terra.
A
lógica tática é esclarecedora. Os operadores lançam os drones e veículos
autônomos sabendo que a comunicação com eles será bloqueada em poucos minutos.
O sucesso depende de quão bem eles são programados para agir autonomamente
quando isso acontecer.
Eles
navegam de forma independente, evitam interferências eletrônicas e continuam a
missão mesmo sem supervisão humana. Isso não é um detalhe insignificante: os
drones já causam entre 70% e 80% das vítimas nessa guerra, de acordo com
estimativas da inteligência europeia.
Na
região do Golfo, a tendência aponta na mesma direção.
O
almirante Brad Cooper, chefe do Comando Central dos EUA, reconheceu que a
inteligência artificial é uma ferramenta fundamental para a identificação de
alvos, permitindo que os EUA "analisem vastas quantidades de dados em
segundos, para que nossos líderes possam tomar decisões mais inteligentes e
mais rápidas do que o inimigo".
<><>
Acordo com o OpenAI
A
história tem um final paradoxal. Dario Amodei declarou, referindo-se às
exigências do Pentágono: "Não podemos, em sã consciência, atender ao
pedido deles." A Anthropic perdeu o contrato.
Horas
depois do anúncio, a OpenAI chegou a um acordo com o Departamento de Defesa.
E então
algo inesperado aconteceu. No dia seguinte ao anúncio do novo acordo pelo
Pentágono, o aplicativo Claude ultrapassou o ChatGPT da OpenAI na App Store da
Apple pela primeira vez na história.
Naquela
semana, mais de um milhão de pessoas se cadastraram no Claude todos os dias,
impulsionando-o ao primeiro lugar em mais de 20 países. As vendas da empresa
dispararam entre o público em geral.
E tem
mais. Duas coalizões de trabalhadores da Amazon, Google, Microsoft e OpenAI
pediram publicamente que suas empresas seguissem o exemplo da Anthropic.
Dezenas
de cientistas e pesquisadores de empresas concorrentes assinaram um parecer
jurídico em apoio à Anthropic. Um general aposentado da Força Aérea, que
liderou o Projeto Maven — o controverso programa de drones com IA que provocou
protestos massivos de funcionários do Google em 2018 até a empresa abandonar o
contrato — escreveu nas redes sociais que, embora se esperasse que ele apoiasse
o Pentágono, simpatizava mais com a posição da Anthropic.
E
talvez igualmente importante: a Anthropic consolidou o apoio de seus próprios
engenheiros, alguns dos profissionais mais requisitados do Vale do Silício, em
um dos mercados de talentos mais competitivos do planeta, onde contratos para
atrair ou reter esses indivíduos podem valer dezenas de milhões de dólares.
Fonte:
BBC News Mundo

Nenhum comentário:
Postar um comentário