IA
e Guerra: a nova fronteira ultrapassada
Quando
o governo dos Estados Unidos decidiu, em fevereiro, que a Anthropic era um
risco de cadeia de suprimentos, replicou pela primeira vez contra uma empresa
nacional uma designação até então reservada a adversários estrangeiros. Quando,
dois meses depois, ensaiou trazê-la de volta apenas para travar a expansão de
seu modelo mais avançado dias depois e, simultaneamente, usar esse mesmo modelo
como justificativa para reverter sua política de não-regulação da IA, mostrou
que o veredicto inicial nunca foi sobre risco. Era sobre quem decide o que se
pode fazer com um modelo de IA de fronteira. Depois de entrar em uma contenda
judicial com a criadora do chatbot Claude, o Departamento de Defesa busca agora
excluir de vez a empresa enquanto traz oficialmente para o front oito
concorrentes. Mais do que isso, hoje anunciou que irá criar um grupo para
propor a possibilidade de veto do governo antes do lançamento de modelos de
fronteira tecnológica.
Com um
Estado em modo de guerra cultural permanente, ter as principais criadoras de
modelos de IA generativa trabalhando juntas para o governo torna mais fácil
substituir uma ou outra peça no tabuleiro sem passar por novas saias justas,
usando o redirecionamento dos contratos para concorrentes como arma de
convencimento. Na arte da guerra trumpista, onde IA de fronteira é vista como
ativo de segurança nacional, todo o esforço vale a pena para manter os amigos
perto e os inimigos mais perto ainda.
A
doutrina por trás dessa nova arquitetura tem conceito administrativo. Chama-se
“all lawful purposes” e foi exatamente o ponto que rompeu a relação de
Washington com a Anthropic em fevereiro. A empresa exigia ressalvas explícitas
contra o uso de Claude em armas totalmente autônomas e em vigilância de massa
doméstica. Diante da recusa do CEO Dario Amodei em ceder, o Pentágono declarou
a Anthropic um “supply chain risk”, categoria historicamente reservada a
adversários estrangeiros. No dia 1º de maio, oito gigantes da tecnologia
(Google, OpenAI, Microsoft, Amazon Web Services, Nvidia, SpaceX, Reflection AI
e Oracle) firmaram acordos para implantar IA em redes classificadas Impact
Level 6 e 7 sob a fórmula “lawful operational use”, confirmando a cláusula como
padrão de contratação. A Anthropic está explicitamente fora da lista. O
Pentágono virou redator das regras gerais de IA para a máquina federal.
A
escala financeira da operação explica a atração exercida pelo Departamento de
Defesa sobre as empresas. Enquanto as big techs devem despejar cerca de US$ 600
bilhões em infraestrutura de IA em 2026, o orçamento de defesa do mesmo ano
reservou US$ 54 bilhões só para IA e autonomia, com aumento de mais de cem
vezes previsto para o recém-criado Defense Autonomous Warfare Group em 2027. A
convergência não é metáfora. Trata-se do coração financeiro da relação. O
Pentágono é simultaneamente cliente, regulador, fonte de credenciamento de
segurança e distribuidor de prestígio geopolítico para um setor que precisa,
por demanda de capex, transformar contratos governamentais em receita
estrutural. Pergunte à Palantir.
<><>
Um estranho no ninho
A
empresa de Amodei foi simultaneamente punida, considerada indispensável e
abandonada mais uma vez. Perdeu investidores como o fundo 1789 Capital, ligado
a Donald Trump Jr., viu concorrentes correrem para ocupar seu espaço, mas até
sexta-feira a National Security Agency (NSA) seguiu incorporando o Mythos,
modelo de fronteira lançado em abril, e o Pentágono nunca deixou de operar
Claude na guerra com o Irã. Liminares e recursos travaram batalha jurídica em
torno da designação de “supply chain risk”, sustentada em última instância pelo
argumento da segurança nacional. A reaproximação ensaiada por uma ação
executiva da Casa Branca para “salvar a face e trazê-los de volta” coexiste com
sinais de que o atrito persiste. Em audiência no Senado em 30 de abril, Hegseth
chamou Amodei de “lunático ideológico” e comparou a posição da Anthropic a de
“uma Boeing que nos vendesse aviões e dissesse em quem podemos atirar”. Na
véspera, a Casa Branca havia rejeitado a expansão do acesso ao Mythos de cerca
de cinquenta para cento e vinte instituições. Trump diz que a empresa está “se
ajeitando”. Apesar do desencontro de declarações, tudo leva a crer que a
barganha continua aberta.
A
embalagem retórica desse arranjo também merece atenção. O subsecretário Emil
Michael, ex-executivo do Uber convertido em CTO do Pentágono, batizou a IA
militar como o próximo “Manifest Destiny” da América. O secretário Pete
Hegseth, no vídeo de lançamento do GenAI.mil, declarou que o futuro da guerra
americana se escreve “A-I”. Em janeiro, ele contratou o Grok, da xAI de Elon
Musk, cunhando o termo “woke AI” como antônimo, em referência velada à
Anthropic. Não se trata apenas de armar a tropa e sim de enquadrar a fronteira
da IA como território cultural disputado, em que cautela ética é traduzida como
suspeição ideológica. A Anthropic foi punida, em parte, por levar a sério o
próprio discurso “safety-first” que justificou seu nascimento, em 2021, por dissidentes
da OpenAI. O recado para o setor é claro. Defender restrições de uso virou
gesto político, não técnico.
<><>
Amargo regresso
O
retorno do Google na relação com o Pentágono ilumina o recado por outro ângulo,
o do fracasso do compliance interno como freio. Em dezembro, o Departamento de
Defesa lançou o GenAI.mil, plataforma destinada a três milhões de militares,
civis e contratados, tendo o Gemini for Government como motor inaugural. Em
abril, o Google assinou expansão do contrato para redes classificadas, horas
depois de mais de seiscentos funcionários, incluindo diretores e pesquisadores
seniores do DeepMind, enviarem carta aberta ao CEO Sundar Pichai pedindo a
recusa do acordo. A mobilização foi simplesmente atropelada pela velocidade da
assinatura. Os organizadores usaram a fórmula que talvez se torne refrão.
“Maven não acabou”.
A
referência histórica é incontornável. Em 2018, cerca de quatro mil funcionários
do Google assinaram petição contra o Project Maven e a empresa deixou o
contrato com o Pentágono expirar, adotando “AI Principles” que vedavam armas e
vigilância. A Palantir assumiu o trabalho. Em fevereiro do ano passado, o
Google apagou silenciosamente esses compromissos, com Demis Hassabis citando a
“competição global pela liderança em IA”. Naquele momento, a IA era experimento
militar contestável; agora, é ativo geopolítico declarado. A capacidade de
mobilização que matou o Maven evaporou. O ciclo de captura do que se poderia
chamar de complexo IA-bélico-industrial se fechou.
<><>
Sem novidade no front
A
história tem precedentes claros para este realinhamento. Em momentos de
salvamento direto, o Estado garantiu empréstimos privados para evitar o colapso
de fornecedores estratégicos, como na Lockheed em 1971 e na Boeing em 2020. Em
momentos de redesenho, forçou a consolidação inteira do setor, como na “Última
Ceia” de julho de 1993, quando o secretário de Defesa reuniu CEOs no Pentágono
e disparou a fusão que reduziu o número de empresas-prime de 51 para cinco. Em
momentos de resistência social ou interna, raramente recuou. Dow Chemical
manteve o napalm até perder licitação em 1969, Honeywell só desinvestiu das
munições cluster após mais de duas décadas de pressão e mudança regulatória e a
Microsoft preservou o contrato IVAS de quase meio bilhão de dólares mesmo com
carta aberta de funcionários em 2019. A exceção foi o Project Maven em 2018,
neutralizada nos anos seguintes. O padrão é estrutural. Quando uma tecnologia é
considerada estratégica, o Estado mantém a empresa no orçamento mesmo contra a
lógica de mercado, contra a vontade da empresa ou contra o protesto de seus
funcionários.
O caso
Anthropic é uma Lockheed invertida em era de fronteira tecnológica. Em 1971, o
Estado se viu obrigado a manter empresa que queria sair. Em 2026, o Estado pode
se ver obrigado a tolerar empresa que não quer sair, mas quer ditar termos de
uso. Mesmo com o presidente Donald Trump postando ordem para imediatamente
cessar o uso da tecnologia, o Pentágono seguia rodando Claude na guerra com o
Irã e a NSA, usando o Mythos. A barganha mudou de natureza. Na era das primes
consolidadas era sobre dinheiro e capacidade industrial, agora é sobre regras
contratuais. O Pentágono tenta replicar com as oito escolhidas o arranjo que
construiu nas últimas três décadas com Lockheed Martin e Boeing, fornecedores
grandes, dependentes e sem cláusulas que limitem o que o cliente pode fazer com
o produto. A defesa pública dessa lógica foi feita pelo próprio Hegseth diante
do Senado com a comparação reveladora. Em suas palavras: “Seria como a Boeing
nos vendendo aviões e dizendo em quem podemos atirar”. A imagem é eficaz, mas Boeing
nunca precisou dessa cláusula porque vendia plataformas finitas, com função
delimitada e sem aplicação civil. A Anthropic não recusa dizer em quem atirar.
Recusa vender uma plataforma cuja única ressalva contratual é não ser usada em
armas totalmente autônomas e em vigilância de massa doméstica.
<><>
Oppenheimer
A
retórica do “novo Projeto Manhattan” com IA, entoada pela comissão bipartidária
do Congresso em novembro de 2024 e endossada pelo secretário de Energia de
Trump no início de 2025, é menos um plano de ação do que uma fantasia
compensatória. O ex-CEO do Google Eric Schmidt, que ajudou a construir o
enquadramento da IA como questão de segurança nacional ao presidir a National
Security Commission on Artificial Intelligence entre 2019 e 2021, hoje alerta
no paper Superintelligence Strategy que tentar replicar o programa de
fabricação da bomba atômica de Oppenheimer com modelos de fronteira em IA
provocaria retaliação chinesa preventiva e desestabilizaria o equilíbrio que o
programa diz proteger.
Nos
anos 1940, o Projeto Manhattan exigia objetivo único, controle centralizado e
sigilo aplicável, condições que a IA simplesmente não reproduz, com talento que
migra entre empresas privadas, papers que atravessam o Pacífico em horas e
capex anual que excede qualquer rubrica orçamentária concebível para um
programa estatal. O arranjo multivendor que o Pentágono está construindo é o
que sobra quando o Manhattan se mostra estruturalmente impossível de ser
replicado em IA. É um Los Alamos sem Los Alamos, executado por cláusula
contratual em vez de cerca elétrica.
<><>
Apocalipse Now
Há uma
reviravolta adicional que confirma o argumento. Segundo o New York Times, a
postura não-intervencionista do governo Trump em relação à IA começou a mudar
em abril depois que a Anthropic anunciou o Mythos. O modelo é tão poderoso na
identificação de vulnerabilidades de software que a empresa decidiu não
liberá-lo ao público. A Casa Branca discute agora ordem executiva criando grupo
de trabalho para vetar modelos de IA antes de seu lançamento, possivelmente
seguindo modelo similar ao do Reino Unido.
A
administração que se elegeu prometendo não regular IA está estudando regular IA
precisamente porque a empresa que tentou excluir produziu o modelo que tornou a
regulação inevitável. A própria chefe de gabinete de Trump, Susie Wiles, e o
secretário do Tesouro, Scott Bessent, os mesmos operadores que negociam o
retorno da Anthropic ao Pentágono, agora lideram a formulação dessa nova
política regulatória após a saída do czar de IA, David Sacks, em março. A
captura militar e a regulação civil da IA têm os mesmos arquitetos políticos, o
que sugere que ambas obedecem a uma única estratégia de governança da fronteira
tecnológica.
<><>
Além da linha vermelha
Há,
porém, uma diferença qualitativa entre os fornecedores históricos do Pentágono
e as big techs de IA que muda a natureza do que está sendo contratado.
Lockheed, Boeing, Raytheon, Dow Chemical e Honeywell entregavam ao Departamento
de Defesa produtos finitos, com aplicação militar delimitada e cadeia produtiva
separada da vida civil. Um míssil Poseidon não toca a vida cotidiana do cidadão
comum, um galão de napalm não roteia conversas privadas, uma munição cluster
não decide qual notícia chega ao eleitor. O dano dessas tecnologias era
trágico, mas geograficamente confinado ao teatro de guerra. E a empresa
fornecedora podia ser substituída sem que o tecido informacional do país
sofresse abalo. A barreira ética entre uso civil e uso militar era nítida e foi
exatamente essa nitidez que permitiu mobilizações como a campanha contra o
napalm da Dow ou as duas décadas do Honeywell Project terem alvo claro.
As
empresas de IA generativa operam em outro registro. Com pequenas alterações, os
mesmos modelos que rodam em redes classificadas do Pentágono respondem a
perguntas de estudantes, redigem contratos comerciais, mediam atendimento ao
cliente, sugerem diagnósticos médicos e, cada vez mais, intermediam o acesso à
informação pública. Quando o Google entrega o Gemini ao GenAI.mil sob cláusula
de “qualquer propósito governamental lícito” não está vendendo um produto
militar específico, está abrindo a mesma infraestrutura cognitiva que serve
bilhões de usuários civis para uso em redes não conectadas à internet
(air-gapped) onde o controle público é inexistente por definição. O Claude que
opera na guerra com o Irã é o mesmo Claude que escreve códigos para programadores
em Buenos Aires ou São Paulo. A fronteira entre civil e militar, entre nacional
e estrangeiro, entre soberano e transnacional, deixa de ser geográfica e passa
a ser contratual, definida em cláusulas que o público não tem acesso.
Isso
afeta a soberania informacional não apenas dos Estados Unidos, mas de qualquer
país cujos cidadãos, governos, jornalistas e empresas dependam dessas mesmas
ferramentas. Uma munição cluster fabricada nos subúrbios de Minneapolis não
tinha como modular o discurso público de um país inteiro, um modelo de
fronteira treinado para servir tanto a um adolescente brasileiro quanto a um
analista da NSA tem. É essa indiferenciação entre infraestrutura civil global e
arsenal militar nacional que torna a captura atual mais grave do que qualquer
episódio anterior do complexo industrial-militar, e que torna a recusa da
Anthropic em ceder na cláusula contratual menos uma birra ética do que o último
rastro de uma fronteira que está sendo apagada.
<><>
Até o último homem
A peça
que articula o arranjo atual é o conceito multivendor. No dia 1º de maio, ao
formalizar os acordos com as oito empresas, o Pentágono comunicou pretender
construir “uma arquitetura que evite a dependência de fornecedor único”, nas
palavras de Cameron Stanley, chefe digital e de IA do departamento. A frase
parece banalidade da burocracia, mas é doutrina política. Distribuir contratos
entre oito empresas sob a mesma cláusula contratual permite ao Estado
disciplinar cada uma delas pela ameaça concreta de redirecionamento do
orçamento. Quando a Anthropic recusou, a OpenAI assinou. Quando o cerco se
fechou em maio, somaram-se Microsoft, Amazon, Nvidia, SpaceX, Reflection AI e
Oracle. Quando convém trazer a Anthropic de volta, basta um aceno presidencial.
Nenhuma empresa tem poder de barganha individual. Todas operam sob o mesmo
enquadramento jurídico. O Pentágono fragmentou o setor para capturá-lo inteiro.
O
resultado é uma arquitetura nova de relacionamento entre Estado e capital
tecnológico estadunidense. Não é a militarização clássica do Vale do Silício
dos anos Eisenhower, em que contratos do DARPA financiavam pesquisa pura.
Tampouco é o civismo distante do início dos anos 2010, em que o Google podia se
permitir “don’t be evil” e ainda assim valer trilhões. É algo intermediário e
mais opaco. Contratos grandes o bastante para condicionar estratégia
corporativa, mas dispersos o bastante para nunca aparecer como dependência.
Princípios éticos foram apagados dos documentos corporativos no momento em que
ficaram caros ou passaram a comprometer novas fontes de receita. Funcionários
se mobilizam, mas decisões saem das mãos deles. Tribunais limitam ações executivas,
mas mantêm designações em nome da “segurança nacional”.
Há uma
camada financeira nessa arquitetura que também merece uma nota. As big techs de
IA queimam caixa em escala que não tem paralelo no setor de tecnologia, com
prejuízos operacionais bilionários com nenhuma das líderes projetando
lucratividade antes do final da década. Em outubro do ano passado, o Fundo
Monetário Internacional e o Banco da Inglaterra alertaram publicamente sobre o
risco de uma “bolha de IA” comparável à dotcom de 2000. Nesse cenário, fechar
contrato com o Pentágono deixa de ser apenas receita estrutural e vira algo
mais valioso, salvo-conduto. A Lockheed em 1971, salva pelo Emergency Loan
Guarantee Act porque era contratada estratégica do Departamento de Defesa, foi
a invenção concreta do “too big to fail” anos antes de o termo virar jargão
financeiro na crise de 2008.
Quando
uma empresa de IA assina cláusula de “lawful operational use” em rede
classificada Impact Level 7, ela não está apenas vendendo um modelo, está se
tornando estrutura crítica de segurança nacional. Se a bolha estourar, e o
histórico do setor sugere que estourará, as oito que assinaram em 1º de maio
terão argumento jurídico e político para resgate federal que a Anthropic,
expulsa do clube, talvez não tenha. A captura, vista por esse ângulo, é também
um seguro reverso. O Pentágono comprou alinhamento ideológico e as empresas
compraram garantia de socorro implícita no contrato.
A
definição do que é “uso lícito” virou objeto de disputa entre advogados de
empresas e procuradores do Pentágono. “Quando você regula por contrato”, disse
Jessica Tillipman, decana associada de aquisições governamentais na George
Washington Law School, “está criando uma quantidade enorme de poder na agência
que negociou esse contrato, e isso se torna efetivamente a política de fato da
administração”. Ferramentas que três anos atrás se vendiam como assistentes de
pesquisa hoje operam em redes classificadas, dentro de guerras ativas, sob
cláusulas que o público não pode ler. Quem ainda quiser falar de ética da IA
daqui para frente terá que começar lendo dispositivos contratuais.
Fonte:
Por James Görgen, em Outras Palavras

Nenhum comentário:
Postar um comentário