Lavender: a máquina de inteligência
artificial que comanda bombardeios de Israel em Gaza
O livro A
equipe homem-máquina: como criar sinergia entre a inteligência humana e
artificial que revolucionará nosso mundo [tradução livre do inglês]
defendia a criação de uma máquina para processar rapidamente grande quantidade
de dados para gerar milhares de alvos em potencial para ataques militares. O
autor da obra, lançada em 2021, assinava com o pseudônimo “General de brigada
YS”. O “general” do livro, que confirmamos ser o atual comandante da unidade de
inteligência israelense de elite 8200, afirmava que tal tecnologia resolveria o
“gargalo humano na localização de novos alvos e na tomada de decisões”.
Hoje, a máquina
existe. Reportagem investigativa dos veículos +972 e Local
Call, traduzida pela Agência Pública, revela
que o Exército israelense desenvolveu um programa baseado em inteligência
artificial (IA) conhecido como “Lavender”. A reportagem original você
pode ler aqui,
em inglês.
De acordo com seis
oficiais das forças de inteligência israelenses, que serviram o exército na
atual guerra na Faixa de Gaza e tiveram envolvimento direto com a IA na geração
de alvos humanos, o Lavender desempenhou papel central nos bombardeios aos palestinos,
sobretudo nos primeiros estágios da guerra. Segundo as fontes, a influência do
programa foi tão grande que os resultados do trabalho da IA foram tratados
“como decisões humanas”.
Em tese, o sistema
Lavender foi concebido para apontar suspeitos de operar nas alas militares do
Hamas e da Jihad Islâmica Palestina, inclusive pessoas de baixo escalão. As
fontes disseram que, nas primeiras semanas da guerra, o exército confiou
quase completamente no Lavender, que registrou cerca de 37 mil palestinos como
suspeitos.
Nos primeiros meses, o
exército deu ampla aprovação para que seus oficiais adotassem listas de mortes
produzidas pelo Lavender, sem nenhuma exigência de verificação minuciosa sobre
as escolhas do programa. Uma fonte afirmou que a mão humana muitas vezes servia
somente para chancelar as decisões da máquina, acrescentando que, normalmente,
eles dedicavam apenas cerca de “20 segundos” a cada alvo antes de autorizar um
bombardeio.
Isso acontecia mesmo
com o Exército sabendo que o sistema “erra” em aproximadamente 10% dos
casos e, ocasionalmente, aponta indivíduos que têm apenas ligação
superficial ou nenhuma ligação com o Hamas ou a Jihad.
Além disso, o exército
atacou sistematicamente indivíduos apontados como alvo enquanto estavam nas suas casas – geralmente à noite, com as famílias –, e não durante atividades militares. Segundo as
fontes, isso ocorreu porque era mais fácil localizá-los nas residências.
O resultado é que
milhares de palestinos – em sua maioria mulheres, crianças ou pessoas que não
estiveram envolvidas nos combates – foram exterminados por ataques aéreos
israelenses, sobretudo nas primeiras semanas da guerra.
“As Forças de Defesa
de Israel (IDF) bombardeavam dentro de casa, sem hesitação. É muito mais fácil
bombardear a casa de uma família. O sistema foi construído para rastrear as
pessoas nestas situações”, disse A, um oficial de inteligência.
Além disso, nos
ataques a alvos apontados pelo Lavender, o exército israelense preferiu usar
apenas mísseis não guiados, vulgarmente conhecidos como bombas “burras”, que
podem destruir edifícios inteiros. “Não querem desperdiçar bombas caras com
pessoas sem importância”, disse C, um dos oficiais do serviço secreto
israelense. Outra fonte autorizou pessoalmente o bombardeio de “centenas” de
casas de supostos agentes iniciantes (de baixo escalão), matando civis e
famílias inteiras.
Duas das fontes
afirmam que, numa ação sem precedentes, o exército decidiu também, durante
as primeiras semanas da guerra, que, para cada agente iniciante do Hamas
apontado pelo Lavender, seria permitido matar até 15 ou 20 civis; para altos
funcionários, o limite chegava a mais de 100 civis.
A seguir, a reportagem
mostra as fases, em ordem cronológica, da automatização de alvos nas primeiras
semanas da guerra em Gaza.
·
1ª fase: Gerando metas
No passado, para o
exército israelense, o termo “alvo humano” se referia a um agente de alto
escalão que poderia ser morto em casa, mesmo com civis por perto. Fontes da
inteligência disseram que, em outras guerras, tais alvos eram apontados com
muito cuidado.
Depois de 7 de outubro
de 2023 – quando terroristas liderados pelo Hamas fizeram um ataque às
comunidades do sul de Israel, matando cerca de 1.200 pessoas e sequestrando 240
–, o exército adotou uma abordagem totalmente diferente: todos os agentes da
ala militar do Hamas se tornaram alvos humanos, independentemente do
escalão.
De acordo com quatro
das fontes, o Lavender apontou cerca de 37 mil palestinos como possíveis
“membros do Hamas” – a maioria deles eram agentes iniciantes. O porta-voz das
Forças de Defesa de Israel negou a existência da lista em nota enviada à
reportagem. “Queriam autorização para atacar automaticamente. Esse é o Santo
Graal. Depois de automatizada, a geração de alvos enlouquece”, explicou o
oficial superior B.
A aprovação para
adotar automaticamente as listas de mortes foi concedida duas semanas após o
início da guerra, depois que as equipes de inteligência verificaram
“manualmente” a precisão de uma amostra aleatória de centenas de alvos
selecionados pelo sistema.
Como a amostra
concluiu que os resultados do Lavender atingiram 90% de precisão, o exército
autorizou o uso abrangente da IA. A partir daí, se o Lavender decidisse
que um indivíduo era membro do Hamas, não havia necessidade de verificação
independente.
“Foi muito
surpreendente pedirem para bombardear uma casa para matar um soldado tão pouco
importante”, disse uma fonte. “Eu apelidei estes alvos de ‘alvos de lixo’.
Ainda assim, me parecia ético bombardear os alvos para ‘dissuasão’ –
arranha-céus derrubados apenas para causar destruição.”
De acordo com dados do
Ministério da Saúde palestino em Gaza, que o exército israelense usa quase que
exclusivamente desde o início da guerra, Israel matou cerca de 15 mil
palestinos nas primeiras seis semanas da guerra, até o cessar-fogo de uma semana
iniciado em 24 de novembro. Hoje, o número de mortes já quase dobrou.
O software Lavender
analisa informações sobre a maioria dos 2,3 milhões de residentes da Faixa de
Gaza por um sistema de vigilância em massa. Em seguida, avalia a probabilidade
de cada pessoa estar ativa na ala militar do Hamas ou da Jihad Islâmica Palestina.
Segundo as fontes, a máquina classifica quase todas as pessoas em Gaza em uma
escala de 1 a 100.
No livro mencionado no
início desta reportagem, o autor e atual comandante da Unidade 8200 não chama o
Lavender pelo nome. O livro traz um breve guia para construir um programa
semelhante ao Lavender e mostra exemplos de traços que podem
aumentar a classificação de um indivíduo, como fazer parte de um grupo de
WhatsApp com um membro conhecido do Hamas, trocar de celular em poucos meses e
mudar de endereço com frequência.
Fontes explicaram que
o Lavender às vezes sinalizava erroneamente indivíduos que tinham padrões de
comunicação semelhantes aos de agentes do Hamas ou da Jihad Islâmica Palestina.
Eram funcionários da polícia e da defesa civil, parentes de membros dos grupos
terroristas, residentes de Gaza com nome e sobrenome idênticos e moradores que
usavam celulares que haviam pertencido a eles.
“Quão próxima uma
pessoa deve estar do Hamas para ser considerada afiliada?”, disse uma fonte que
criticou a imprecisão do Lavender. “É um limite vago. Uma pessoa que não recebe
salário do Hamas, mas ajuda o grupo com outras coisas, é um agente? E alguém
que fez parte, mas não está lá hoje?”
Segundo as fontes, o
exército sabia que a supervisão humana mínima não iria descobrir essas falhas.
“Não havia uma política de ‘erro zero’. Os erros foram tratados
estatisticamente”, disse uma fonte que usou o Lavender.
“Houve uma quantidade
ilógica de [bombardeios] nesta operação. Foi algo sem precedentes. Confio muito
mais num mecanismo estatístico do que num soldado que perdeu um amigo há dois
dias. Todos lá, inclusive eu, perderam pessoas no dia 7 de outubro. A
máquina fez isso com frieza. E isso tornou tudo mais fácil”, disse B.
Outra fonte da
inteligência, que defendeu as listas de suspeitos geradas pelo Lavender,
argumentou que valia a pena investir o tempo de um oficial de inteligência para
verificar a informação só se o alvo fosse um comandante sênior do Hamas.
B disse que o
propósito da automação foi o esforço para gerar mais alvos. “Éramos
constantemente pressionados. Gritavam conosco. Nós acabávamos [de matar] nossos
alvos muito rapidamente. […] No auge, o sistema conseguiu gerar 37 mil
potenciais alvos humanos”, disse B.
Em nota ao +972 e
à Local Call, o porta-voz das Forças de Defesa de Israel negou o
uso de inteligência artificial para apontar alvos, dizendo que estas são apenas
“ferramentas auxiliares que auxiliam os oficiais no processo”.
“Em todo caso, é
necessária uma avaliação independente por um analista [de inteligência], que
verifique se os alvos são legítimos para ataque, segundo as condições
estabelecidas nas diretivas das Forças e no direito internacional”, diz a
nota.
No entanto, fontes
disseram que o único protocolo de supervisão humana em vigor antes de
bombardear as casas de supostos agentes iniciantes marcados pelo
Lavender era garantir que o alvo fosse um homem e não uma mulher. O
exército acreditava que, se fosse uma mulher, a máquina teria cometido um erro,
porque não há mulheres nas alas militares do Hamas e da Jihad. Na prática, isso
significava que, para homens civis apontados equivocadamente pelo Lavender,
não havia como detectar o erro.
·
2ª fase: Relacionando
alvos às casas
A etapa seguinte do
protocolo de assassinatos do exército israelense era identificar onde atacar os
alvos.
Em nota, o porta-voz
das Forças de Defesa de Israel afirmou que “o Hamas coloca agentes e aparatos
militares no coração da população civil e usa sistematicamente escudos humanos,
além de travar combates em estruturas civis, incluindo hospitais e escolas. As
Forças agem de acordo com o direito internacional, direcionando ataques apenas
contra alvos militares”.
As fontes argumentaram
que muitos ataques israelenses matam civis como resultado dessas táticas do
Hamas. Por outro lado, explicaram que uma das principais razões para o
alto número de mortes são os ataques sistemáticos a alvos em suas casas, com suas
famílias.
As fontes contaram
que, como todos em Gaza tinham uma casa à qual podiam estar associados, os
sistemas de vigilância do exército poderiam automaticamente “associar” os
indivíduos às residências.
Para identificar o
momento em que os agentes entram em casa, foram desenvolvidos softwares
automáticos adicionais, que rastreiam milhares de indivíduos simultaneamente,
identificam quando estão em casa e enviam um alerta automático ao oficial
responsável, que aponta a casa a ser bombardeada. Um destes softwares chama-se
Where’s daddy? (Onde está papai?).
A evidência dessa
política fica clara também nos dados: no primeiro mês da guerra, mais de
metade das mortes – 6.120 pessoas – pertencia a 1.340 famílias, muitas
exterminadas enquanto estavam em casa, segundo a ONU.
“Um dia, por minha
conta, adicionei cerca de 1.200 novos alvos ao sistema, porque o número de
ataques diminuiu”, disse uma fonte. “Tais decisões não foram tomadas em altos
escalões.”
Nas primeiras duas
semanas da guerra, milhares de alvos foram incluídos em programas de
localização. Esses alvos incluíam todos os membros da Nukhba, a unidade de
forças especiais da elite do Hamas e todos os agentes antitanques do grupo.
Mas, em pouco tempo, a lista foi ampliada e incluiu até menores de idade.
O Lavender e sistemas
como Where’s daddy? trabalhavam de forma combinada, matando famílias
inteiras. Quando um nome das listas geradas pelo Lavender era adicionado
ao Where’s daddy?, explicou A, a pessoa ficaria sob vigilância contínua e
poderia ser atacada assim que colocasse os pés em casa. Em seguida, a casa
poderia desabar sobre quem estivesse lá dentro.
“Digamos que você
calcule [que há um] [agente] do Hamas mais dez [civis na casa]”, disse A.
“Normalmente, esses dez serão mulheres e crianças. É tão absurdo que a
maioria das pessoas mortas eram mulheres e crianças.”
·
3ª fase: Escolhendo
uma arma
Em dezembro de 2023, a
rede de televisão CNN informou que, de acordo com estimativas da inteligência
dos EUA, cerca de 45% das munições utilizadas pela força aérea israelense em
Gaza eram bombas “burras”, conhecidas por causarem mais danos colaterais do que
bombas guiadas.
Em resposta à CNN, um
porta-voz do exército garantiu que os militares “dedicam muitos recursos para
minimizar os danos aos civis obrigados a serem usados como escudos humanos pelo
Hamas. Nossa guerra é contra o Hamas, não contra o povo de Gaza”.
Três fontes de
inteligência, no entanto, disseram que agentes iniciantes apontados pelo
Lavender foram assassinados com “bombas burras”, para economizar armamentos
mais caros. Uma delas explicou que o exército não atacaria tal alvo se ele
morasse em um prédio alto, porque não gastaria uma bomba mais precisa e
cara.
·
4ª Fase: Autorizando
vítimas civis
Uma fonte disse que,
ao atacar agentes iniciantes, o número de civis autorizados a matar para
cada alvo era de até 20 nas primeiras semanas da guerra. Esses “graus de danos
colaterais”, como os militares chamam, foram aplicados a todos os suspeitos de
serem iniciantes.
De acordo com A,
ex-oficial numa sala de operações na guerra, o Departamento de Direito
Internacional do exército nunca havia dado uma “aprovação tão ampla”. “Não se
trata apenas de poder matar qualquer soldado do Hamas, o que é claramente
permitido e legítimo no direito internacional. Mas diziam diretamente:
‘Você tem permissão para matá-los com muitos civis’.” Questionada sobre a
lógica de segurança por trás dessa política, a fonte respondeu: “Letalidade”.
Fontes disseram
ao +972 e à Local Call que agora, em parte
devido à pressão americana, o exército israelense não gera alvos em massa para
bombardear casas de civis. O fato de a maioria das residências na Faixa de Gaza
já ter sido destruída ou danificada, e de quase toda a população ter sido
deslocada, também prejudicou a capacidade do exército de confiar em bases de
dados e automatização.
No entanto, os
ataques aéreos contra altos comandantes do Hamas continuam, e, segundo as
fontes, os militares podem autorizar a morte de “centenas” de civis por alvo –
uma política oficial para a qual não há precedente em Israel ou nas recentes
operações militares dos EUA.
“No bombardeio contra
o comandante do Batalhão Shuja’iya, sabíamos que mataríamos mais de cem civis”,
lembrou B, ao se referir a um atentado em 2 de dezembro, que o porta-voz das
Forças de Defesa de Israel disse ter como objetivo assassinar Wisam Farhat.
“Para mim, psicologicamente, foi incomum. Mais de cem civis… Isso ultrapassa
qualquer limite.”
Amjad Al-Sheikh, um
jovem palestino de Gaza, disse que muitos de seus familiares foram mortos
naquele atentado. Ele estava num supermercado quando ouviu cinco explosões que
quebraram as janelas de vidro.
“Corri para a casa da
minha família, mas não havia mais prédios lá”, disse Al-Sheikh ao +972 e
à Local Call. “A rua estava tomada por gritos e fumaça. Blocos
residenciais inteiros viraram escombros. Eu e outras pessoas começamos a
remover o concreto com as mãos, em busca de vestígios das famílias.” Sua esposa
e filha sobreviveram, “protegidas” por um armário que caiu em cima delas, mas
ele perdeu 11 membros da família, entre eles irmãos e filhos
pequenos.
Fontes de inteligência
disseram que participaram de ataques ainda mais letais. Para assassinar
Ayman Nofal, comandante da Brigada Central de Gaza do Hamas, uma fonte contou
que o exército autorizou a morte de aproximadamente 300 civis, destruindo edifícios
em ataques aéreos em um campo de refugiados, com base na localização imprecisa
de Nofal.
“A política em relação
às baixas era tão permissiva que, na minha opinião, havia um elemento de
vingança”, afirmou D. “Fazíamos um cálculo: ‘Quantas pessoas para um comandante
de brigada? Quantas para um comandante de batalhão?’”
Todas as fontes
disseram que os massacres do Hamas em 7 de outubro de 2023 e o sequestro de
reféns israelenses influenciaram muito a política de ataques do exército e os
graus de danos colaterais.
“No início, a
atmosfera era dolorosa e vingativa”, disse B, que foi convocado imediatamente
após 7 de outubro e serviu numa sala de operações. “As regras eram muito
brandas. Derrubaram quatro prédios quando souberam que o alvo estava em um
deles. Foi insano.”
“Havia uma
dissonância: por um lado, as pessoas estavam frustradas porque não estávamos
atacando o suficiente”, continuou B. “Por outro, no fim do dia, víamos que mais
mil habitantes de Gaza haviam morrido, a maioria civis.”
B, a fonte de
inteligência sênior ouvida pela reportagem, disse que, olhando em
retrospectiva, acredita que esta política “desproporcional” de matar palestinos
em Gaza também põe em perigo os israelenses. Essa foi uma das razões pelas
quais decidiu falar.
“Em curto prazo,
estamos mais seguros, porque prejudicamos o Hamas, mas não estamos a longo
prazo. As famílias enlutadas em Gaza – que são quase todas – aumentarão a
motivação para [se juntarem] ao Hamas em dez anos. E será muito mais fácil para
[o Hamas] recrutá-las.”
Em nota ao +972 e
à Local Call, o exército israelense negou a maior parte do que as
fontes disseram, alegando que “cada alvo é examinado individualmente, enquanto
é feita uma avaliação única da vantagem militar e dos danos colaterais
esperados do ataque. As IDF não realizam ataques quando os danos colaterais
ultrapassam a vantagem militar”.
·
5ª fase: Bombardeando
uma casa de família
As fontes explicaram
que às vezes havia um intervalo considerável entre o momento em que sistemas de
rastreamento como o Where’s daddy? alertavam que um alvo havia entrado em casa
e o instante do bombardeio. “O resultado é que você mata uma família sem
motivo”, afirmou uma delas.
“Às vezes [o alvo]
estava em casa mais cedo e à noite ia dormir em outro lugar”, disse uma das
fontes. “Há momentos em que você verifica novamente a localização, e outros em
que você apenas diz: ‘Ele esteve em casa nas últimas horas, então podemos
bombardear’.”
Nas guerras anteriores
em Gaza, após o assassinato de alvos, a inteligência israelense fazia
procedimentos de avaliação de danos causados por bombas
[BDA, na sigla em inglês] – uma verificação para ver se o comandante superior foi morto e quantos civis
foram mortos com ele. Na guerra que começou em outubro de 2023, fontes dizem que esse procedimento foi
abolido para poupar tempo quando os alvos eram agentes de baixo escalão.
Embora os militares
israelenses possam avançar após cada ataque sem se preocuparem com o número de
vítimas, Amjad Al-Sheikh, o residente de Shuja’iya que perdeu 11 membros da
família no bombardeio de 2 de dezembro, disse que ele e os seus vizinhos estão ainda
em busca de corpos.
“Quatorze prédios
residenciais foram bombardeados com moradores dentro. Alguns dos meus parentes
e vizinhos ainda estão soterrados.”
Fonte: Por Yuval
Abraham - Tradução: Maria Martha Bruno, da Agencia Pública
Nenhum comentário:
Postar um comentário