Essas
não são empresas de IA, são empreiteiras de defesa. Não podemos deixá-las se
esconder atrás de seus modelos
Existe uma estratégia militar israelense
chamada "procedimento da névoa". Utilizada pela primeira vez durante
a Segunda Intifada, trata-se de uma regra não oficial que exige que os soldados
que guardam postos militares em condições de baixa visibilidade disparem
rajadas de tiros na escuridão, partindo do princípio de que uma ameaça
invisível possa estar à espreita.
É violência legitimada pela cegueira. Atirar
na escuridão e chamar isso de dissuasão. Com o advento da guerra com IA, essa
mesma lógica de cegueira voluntária foi refinada, sistematizada e entregue a
uma máquina.
A recente guerra de Israel em Gaza foi
descrita como a primeira grande “guerra de IA” – a primeira guerra em que
sistemas de IA desempenharam um papel central na geração da lista de supostos
militantes do Hamas e da Jihad Islâmica que Israel deveria alvejar. Sistemas
que processaram bilhões de pontos de dados para classificar a probabilidade de
que qualquer pessoa no território fosse um combatente.
A escuridão na torre de vigia era uma
condição do terreno. A escuridão dentro do algoritmo é uma condição do projeto.
Em ambos os casos, a cegueira foi escolhida. Foi escolhida porque a cegueira é
útil: cria negação, faz com que a violência pareça inevitável, transfere a
questão de quem decidiu de uma pessoa para um procedimento. A névoa não se
dissipou. Foi atribuída uma pontuação de probabilidade e chamada de
inteligência.
Pode ter sido a cegueira voluntária que
levou, no início da guerra entre os EUA e o Irã , ao
ataque à escola primária Shajareh Tayyebeh em Minab, no sul do Irã. Pelo menos
168 pessoas foram mortas, a maioria crianças, meninas de sete a 12 anos.
As armas eram precisas. Especialistas em
munições descreveram o ataque como "incrivelmente preciso",
cada prédio atingido individualmente, sem nenhum erro. O problema não foi a
execução, mas sim a inteligência. A escola havia sido separada de uma base
adjacente da Guarda Revolucionária por uma cerca e adaptada para uso civil
quase uma década antes. Em algum ponto do processo de seleção de alvos, essa
informação parece não ter sido atualizada.
O papel exato da IA no ataque a Minab não foi
oficialmente confirmado. Sabe-se que a infraestrutura de direcionamento na qual
esses sistemas operam não possui um mecanismo confiável para
sinalizar quando a inteligência subjacente está
desatualizada em uma década.
Independentemente de ter sido um algoritmo
que selecionou essa escola, ela foi escolhida por um sistema desenvolvido por
meio de inteligência artificial. Para atingir 1.000 alvos nas primeiras 24
horas da campanha no Irã, as forças armadas dos EUA contaram com sistemas de IA para gerar, priorizar e
classificar a lista de alvos a uma velocidade que nenhuma equipe humana
conseguiria replicar.
Gaza era o laboratório. Minab é o mercado. O
resultado é um mundo em que as decisões de alvos mais importantes na guerra
moderna são tomadas por sistemas que não conseguem se explicar, abastecidos por
empresas que não respondem a ninguém, em conflitos que não geram
responsabilização nem prestação de contas. Isso não é uma falha do sistema.
Isso é o sistema.
<><> De quem é a culpa quando a
IA mata?
Devemos resistir à tentação de culpar
exclusivamente o algoritmo pela lógica que torna as taxas de erro de crianças
aceitáveis. Em julho de 2014, quatro meninos da família Bakr – Ismail,
Zakariya, Ahed e Mohammad, com idades entre nove e onze anos – foram mortos em uma
praia em Gaza . Nenhuma inteligência artificial
esteve envolvida. O local havia sido previamente classificado como um complexo
naval do Hamas. Os meninos foram sinalizados como suspeitos porque correram e
depois caminharam – um comportamento que correspondia a um padrão de alvo para
combatentes que tentavam não chamar a atenção. Quando o primeiro míssil atingiu
o alvo, as crianças sobreviventes fugiram. O drone as seguiu e disparou
novamente. Um oficial testemunhou posteriormente que, de uma perspectiva aérea
vertical, é muito difícil identificar crianças. O ataque foi registrado como um
erro de alvo.
Um banco de dados militar israelense
confidencial, analisado pelo
Guardian, pela revista +972 e pelo Local Call ,
indicou que, das mais de 53.000 mortes registradas em Gaza, combatentes
identificados do Hamas e da Jihad Islâmica representaram cerca de 17%. Isso
sugere que os 83% restantes eram civis. Essas não são as estatísticas de uma
guerra travada com precisão; esta é uma guerra onde a imprecisão é o objetivo.
(As Forças de Defesa de Israel contestaram os números apresentados no artigo do
Guardian, embora não tenham especificado quais.)
Portanto, os sistemas de mira por IA não
inventaram essa lógica. Eles a herdaram, codificaram-na em milhões de pontos de
dados e automatizaram-na além de qualquer verificação humana significativa.
Quando uma escola em Minab é classificada em um banco de dados como um complexo
militar, isso não é uma falha. É o procedimento de névoa, a mesma lógica que
perseguiu quatro meninos em uma praia em Gaza – funcionando exatamente como
planejado, em uma escala diferente, em um país diferente, com uma arma diferente.
A escuridão apenas possui um hardware melhor agora.
Muitos desses sistemas de IA desafiam
inerentemente o direito internacional humanitário, que não exige apenas
resultados corretos em operações militares; ele requer um processo cuidadoso
antes de sua execução. Um comandante deve fazer todos os esforços razoáveis para verificar se um alvo é um objetivo
militar legítimo. A lei também exige que tudo o que for viável seja
feito para proteger civis dos efeitos de um ataque, não como uma
reflexão tardia, mas como uma obrigação paralela e
equivalente.
Essa obrigação não pode ser delegada a um
sistema cujo raciocínio é opaco e cujos resultados não podem ser questionados
em tempo real. Em Gaza, um algoritmo processou dados de todas as pessoas na
Faixa de Gaza – registros telefônicos, padrões de movimento, conexões sociais,
sinais comportamentais – e gerou uma lista hierarquizada de nomes, a cada um
atribuído um escore de probabilidade indicando a probabilidade de serem
combatentes. Isso não é o mesmo que um analista humano identificar um militante
conhecido e programar uma arma para atingi-lo. A IA não estava confirmando
identidades. Ela as inferia, estatisticamente, em toda a população, gerando
alvos que nenhum ser humano havia avaliado individualmente antes de aparecerem
na lista.
Nesse sistema, a verificação consistia em um
operador humano revisar cada nome por uma média de 20 segundos, tempo
suficiente para confirmar que o alvo era do sexo masculino. Em seguida, ele
finalizava o processo. Um único sistema gerou mais de 37.000
alvos nas primeiras semanas da guerra .
Outro era capaz de gerar 100 potenciais locais de bombardeio por dia. Os
humanos envolvidos não estavam exercendo julgamento. Eles estavam gerenciando
uma fila.
No Irã, o cenário, neste momento, é menos
documentado. Mas a escala fala por si só. Duas fontes confirmaram à
NBC News que os sistemas de IA da Palantir, que
se baseiam em parte em tecnologia de modelos de linguagem de grande escala,
foram usados para
identificar alvos. (O CEO da Palantir, Alex Karp, disse que "não podia
entrar em detalhes" quando questionado sobre isso na CNBC, mas afirmou que
Claude ainda estava integrado aos sistemas da Palantir usados na guerra do Irã.) Brad
Cooper, chefe do Comando Central dos EUA, vangloriou-se de que os militares estão usando IA
no Irã para "analisar vastas quantidades de dados em
segundos" a fim de "tomar decisões mais inteligentes e mais rápidas
do que o inimigo consegue reagir". Independentemente de todos os ataques
terem sido ou não auxiliados por IA, o ritmo da campanha só foi possível porque
a seleção de alvos foi substancialmente automatizada.
Quando os tempos de verificação relatados
para alvos assistidos por IA são medidos em segundos, não estamos mais falando
de julgamento humano com auxílio algorítmico. Estamos falando de simplesmente
aprovar o resultado de uma máquina. E quando os dados dessa máquina estão
desatualizados em uma década, as consequências se repetem como pequenas
tragédias.
As empresas envolvidas nisso não são startups
obscuras do setor de defesa. A Palantir , fundada com financiamento inicial da CIA e agora
uma das principais fornecedoras de infraestrutura de IA para as forças armadas
dos EUA, forneceu sistemas usados na campanha contra o Irã. Esses
sistemas se baseiam, em parte, no Claude da Anthropic, um modelo de linguagem
de grande escala cuja empresa controladora tentou resistir à pressão do Pentágono para
remover as restrições éticas ao seu uso para direcionamento de alvos. O Pentágono
respondeu ameaçando romper relações e recorrendo à OpenAI e
outras empresas. O mercado de assassinatos em larga escala não carece de
fornecedores.
O episódio é instrutivo: a única empresa que
tentou impor limites foi marginalizada, e a matança continuou sem interrupção.
O Google, apesar de significativos protestos internos de seus funcionários,
assinou o Projeto Nimbus, um contrato de computação em nuvem e inteligência
artificial com o governo e as forças armadas israelenses no valor de mais de
US$ 1 bilhão.
A Amazon é signatária do Projeto Nimbus
juntamente com o Google. A Microsoft tinha uma profunda integração com os
sistemas militares israelenses antes de se retirar parcialmente sob pressão em
2024, momento em que os dados migraram para a Amazon Web Services em questão de
dias.
A Anduril, fundada por Palmer Luckey e
composta em grande parte por ex-funcionários da defesa dos EUA, constrói
sistemas de armas autônomas projetados explicitamente para ataques letais. A
OpenAI, que até recentemente proibia o uso militar em seus termos de serviço,
removeu discretamente essa restrição no início de 2024 e, desde então, busca
contratos com o Pentágono. Essas estão entre as empresas mais valiosas do
mundo, com produtos de consumo utilizados por centenas de milhões de pessoas,
parcerias de pesquisa com universidades e influência política significativa em
Washington, Bruxelas e outros países.
É claro que empresas privadas fornecem
equipamentos para as forças armadas há séculos – rádios, caminhões, sistemas de
navegação por satélite, tecnologia de micro-ondas e, obviamente, sistemas de
armas complexos. Isso não é novidade nem inerentemente corrupto. O problema do
"duplo uso" é tão antigo quanto a industrialização: quase qualquer
tecnologia poderosa pode ser usada para fins militares.
Mas a inteligência artificial para
direcionamento de alvos não é simplesmente um componente que as forças armadas
incorporam em suas operações. É a própria arquitetura de decisão – o que
determina quem será morto e por quê. Quando um único sistema consegue gerar
dezenas de milhares de alvos no tempo que uma equipe de inteligência humana
levaria para verificar 10, a questão não é se empresas privadas devem fornecer
seus serviços às forças armadas. É se qualquer estrutura legal conseguirá
sobreviver ao contato com essa tecnologia.
No direito internacional, falamos de
estruturas de responsabilização: a cadeia de responsabilidade que vai da
decisão de usar força letal até a pessoa que a autorizou. Uma estrutura de
responsabilização exige que alguém seja identificado como o tomador de decisão,
que seu raciocínio seja reconstruível posteriormente e que as obrigações
processuais exigidas por lei – avaliação da proporcionalidade, verificação,
precaução – possam ser comprovadamente cumpridas.
A inteligência artificial (IA) que visa alvos
destrói sistematicamente cada uma dessas condições. A atribuição se dissolve em
uma cadeia de engenheiros, comandantes, operadores e fornecedores corporativos,
cada um dos quais pode apontar para outro. O raciocínio desaparece em uma
pontuação de probabilidade que nenhum advogado pode auditar e nenhum tribunal
pode questionar. O processo se resume a uma aprovação de 20 segundos de uma
recomendação da máquina. E as empresas que construíram e venderam o sistema estão
completamente fora da estrutura legal, porque o direito internacional
humanitário foi concebido para os Estados e seus agentes, e a Palantir não é
signatária das Convenções de Genebra.
O arcabouço de responsabilização não foi
apenas tensionado ou testado pela guerra com IA. Ele se tornou estruturalmente
irrelevante.
<><> Dissipando a névoa da guerra
Devemos parar de chamar essas empresas de
tecnologia pelo que elas realmente são: empreiteiras de defesa.
As maiores empresas de IA não são
fornecedoras neutras de infraestrutura que por acaso encontraram um cliente
militar. Elas estão sendo integradas à arquitetura de direcionamento da guerra
moderna. Seus sistemas estão inseridos na cadeia de destruição, seus
engenheiros possuem autorizações de segurança, seus executivos transitam pela
mesma porta giratória que sempre conectou o Vale do Silício ao Pentágono.
Esses fornecedores de IA estão na vanguarda
do complexo militar-industrial e devem ser regulamentados como tal. Uma cadeia
de responsabilidade clara se aplica a empresas como a Raytheon e a Lockheed
Martin – incluindo controles de exportação, supervisão do Congresso, estruturas
de responsabilidade e condições de aquisição – enquanto as regulamentações
frouxas que se aplicam às empresas que desenvolvem os algoritmos que selecionam
alvos militares nunca foram aplicadas, testadas ou cumpridas.
Isso não é um descuido. É uma escolha,
ativamente mantida por meio de lobby, pela deliberada confusão entre produtos
“comerciais” e “de defesa” e por uma cultura regulatória que ainda trata a IA
como uma tecnologia de consumo que por acaso chegou ao campo de batalha. A
Palantir gastou quase US$ 6 milhões em lobby em Washington em 2024 e, em um
trimestre de 2023, superou os gastos da Northrop Grumman. Ela lançou uma
fundação dedicada a moldar o ambiente político em que opera. O consórcio
formado por Palantir, Anduril, OpenAI, SpaceX e Scale AI foi descrito por seus
próprios participantes como um projeto
para fornecer uma nova geração de contratados de defesa ao governo dos EUA. As
empresas de capital de risco que apoiam essas empresas, Andreessen Horowitz e
Founders Fund, cultivaram influência por meio da proximidade com o poder: ex-altos
funcionários em seus conselhos consultivos, sócios que transitam por cargos
governamentais e acesso direto aos formuladores de políticas que determinam
quanto o Pentágono gasta e em quê.
A Lei de IA da UE, a tentativa mais ambiciosa
até agora de regulamentar a inteligência artificial, isenta explicitamente as
aplicações militares e de segurança nacional, com a justificativa declarada de
que o direito internacional humanitário é a estrutura mais apropriada. Trata-se
de um notável ato de circularidade: o próprio corpo de direito que está sendo
sistematicamente destruído por esses sistemas é designado como seu regulador,
enquanto os reguladores que poderiam de fato restringi-los ignoram a situação.
Nos Estados Unidos, as disposições sobre IA
da Lei de Autorização de Defesa Nacional de 2025 não regulamentam a IA militar.
Elas orientam as agências a adotarem mais IA. A estratégia de IA de Pete
Hegseth, divulgada em janeiro de 2026, enquadra a questão inteiramente como uma
corrida, orientando o Pentágono a agir em ritmo de guerra, com a IA como o
primeiro campo de testes. A cultura regulatória não deixou de acompanhar a
tecnologia. Ela simplesmente decidiu, deliberadamente, não tentar.
Até o momento, a única intervenção
governamental séria na capacidade militar da IA que vimos não veio de um Estado exigindo moderação ou
responsabilização, mas sim dos EUA exigindo que os sistemas se tornassem
mais letais. Esse é o horizonte de ambição que aceitamos.
Proibir completamente esses sistemas é
impossível quando tantos dos atores envolvidos demonstram pouco interesse pelo
direito internacional. Mas os pontos de pressão permanecem, e são reais.
Qualquer futuro governo em Washington que deseje usar capacidade militar de IA
sem produzir uma série interminável de Minabs precisará de uma estrutura
regulatória – não como uma concessão às críticas, mas como um requisito básico
para não se tornar um ator desonesto. O mesmo se aplica à Europa, onde o Reino
Unido investiu mais de £ 1 bilhão em um novo sistema de mira integrado com IA,
conectando sensores e capacidades de ataque em todos os domínios, onde a
principal empresa de IA da França firmou parceria com uma startup alemã de
defesa para construir plataformas de armas autônomas e onde a Alemanha está
implantando drones de ataque guiados por IA na Ucrânia.
Existe uma oportunidade para regulamentar
esses sistemas. A UE possui as ferramentas mais óbvias, não por meio da Lei de
IA, que isenta deliberadamente aplicações militares, mas sim por meio de
controles de exportação e condições de aquisição para sistemas de dupla
utilização que transitam entre os mercados comercial e de defesa. Tribunais
internacionais também estão começando a abrir portas: o parecer consultivo do
Tribunal Internacional de Justiça sobre os direitos palestinos criou uma
estrutura na qual empresas que fornecem sistemas usados em ataques ilegais enfrentam potencial
responsabilidade em jurisdições que levam o direito internacional a sério. E as
empresas de IA precisam dos governos, não apenas como clientes, mas também como
provedores do poder computacional, da energia e da infraestrutura física que a
IA de ponta exige e que nenhuma empresa consegue sustentar apenas com receitas
comerciais. Essa dependência confere aos Estados dispostos a usá-la uma
influência real sobre as empresas que preferem não ser
regulamentadas. A questão é se algum governo com as ferramentas para agir
decidirá, antes da próxima reunião de Minab, que o custo da inação se tornou
muito alto.
A regulamentação que deveria ser feita é
relativamente simples, ainda que difícil de aplicar. Os sistemas de IA usados na seleção de alvos devem ser explicáveis – não por meio de uma pontuação de
probabilidade, mas sim por meio de um raciocínio que possa ser auditado por um advogado. O
custo civil cumulativo das campanhas assistidas por IA deve ser avaliado em sua
totalidade. E a responsabilidade que se limita ao operador deve se estender por
toda a cadeia de suprimentos, até as empresas que, conscientemente,
construíram e venderam sistemas opacos para uso em conflitos armados. Essas não
são exigências novas. São as condições mínimas para que as leis da guerra
tenham algum significado na era da seleção de alvos algorítmica.
Entretanto, o procedimento de combate na
neblina está operacional e vem definindo o futuro da guerra. Mas os soldados
que atiraram na escuridão estavam, pelo menos, presentes nela. As empresas que
construíram o que os substituiu fazem isso a partir de Palo Alto, sem riscos
pessoais, sem responsabilidade legal e com todos os incentivos para repetir a
experiência.
Fonte:
Por Avner Gvaryahu, para The Guardian

Nenhum comentário:
Postar um comentário