Os crimes de guerra de Israel em Gaza
mostram o verdadeiro perigo da IA
Por um breve momento
em 2023, a maior ameaça existencial à humanidade parecia vir não das mudanças
climáticas antropogênicas, mas de outro espectro movido pelo homem: a
inteligência artificial. Introduzindo esse novo sabor distópico, foi o
lançamento do ChatGPT-3 pela OpenAI, um modelo de linguagem grande, ou LLM,
capaz de gerar longas sequências de texto preditivo com base em prompts
humanos.
Nas semanas seguintes,
à medida que pessoas em todo o mundo consumiam bilhões de watts de energia
enviando prompts como “Reescreva os prequels de Star Wars onde Jar Jar Binks é
na verdade o Lorde Sith secreto”, o discurso público se congestionou com uma mistura
de prognósticos tecnológicos, experimentos filosóficos e enredos amadores de
ficção científica sobre máquinas sencientes.
Os principais veículos
de mídia publicaram artigos como “Podemos Parar a IA Fora de Controle?” e “O que os Humanos Acabaram de Libertar?” Governos em todo o Ocidente se apressaram para formar comitês
de supervisão, e cada pessoa com conhecimentos tecnológicos adotou um novo
vocabulário quase da noite para o dia, trocando termos como “aprendizado de
máquina” e “ciência de dados” por “IA.”
Enquanto o lançamento
do ChatGPT-3 pela OpenAI desencadeou uma corrida armamentista de LLMs entre
gigantes da tecnologia como Google, Amazon e Meta, alguns tecnólogos
proeminentes, como Elon Musk e Steve Wozniak, assinaram uma carta aberta alertando
sobre o futuro sombrio de uma inteligência artificial descontrolada, pedindo a
todos os laboratórios de IA que interrompessem seus experimentos até que nossos
aparatos regulatórios (e nossa ética) pudessem acompanhar. Nas páginas
pixeladas do New York Times e do Substack, intelectuais
públicos debateram abertamente os dilemas morais levantados pelo espectro de
uma inteligência artificial onipotente.
Embora os defensores
mais entusiastas e os temerosos fatalistas da IA provavelmente tenham exagerado
tanto nas capacidades dos LLMs quanto na velocidade dos desenvolvimentos de
pesquisa na área, eles provocaram um conjunto de questões éticas importantes sobre
o papel da tecnologia na sociedade.
Levantar essas
questões no tempo futuro, sobre o que devemos fazer se e quando a tecnologia
atingir um ponto hipotético distante, abdica nossa responsabilidade no presente
em relação às maneiras como estamos atualmente usando a tecnologia e como essa
dependência já pode estar colocando a humanidade em perigo.
Devemos talvez ser
especialmente vigilantes quanto ao uso da tecnologia para segurança cibernética
e de guerra, não apenas por causa das óbvias implicações morais, mas também
porque a OpenAI recentemente nomeou um
general reformado do Exército dos EUA e ex-conselheiro da Agência de Segurança
Nacional (NSA) para seu conselho. A melhor maneira de se preparar para um
futuro perigoso causado pelas máquinas é observar que esse futuro já está aqui.
E está se desenrolando em Gaza.
A guerra de Israel em
Gaza
Em uma série de
investigações inovadoras, as publicações israelenses +972 e Local
Call revelaram o extenso papel da IA na campanha militar de Israel contra
Gaza, que começou em 8 de outubro de 2023 e que Israel chama de Operação
Espadas de Ferro. Baseando-se fortemente em testemunhos fornecidos por seis
fontes anônimas dentro das Forças de Defesa de Israel (IDF), todas com
experiência direta com essa tecnologia, o repórter investigativo Yuval Abraham
descreve três sistemas algorítmicos usados pela IDF: “O Evangelho”, “Lavanda” e
“Onde Está o Papai?” Embora não possamos verificar de modo independente
qualquer uma das alegações feitas pelas fontes de Abraham, assumiremos sua
veracidade ao longo deste artigo.
De acordo com as
fontes de Abraham, o Evangelho gera uma lista
de estruturas físicas a serem atacadas, e Lavanda gera uma lista
de humanos a serem atacados. “Onde Está o Papai?” é um sistema auxiliar de
rastreamento que é então usado para prever quando os alvos gerados pelo Lavanda
entraram em suas casas para que possam ser bombardeados.
Todas as fontes de
Abraham, soldados da reserva convocados após 7 de outubro, indicaram que esses
sistemas, quando em uso, têm muito pouca supervisão humana, com os soldados
frequentemente fornecendo apenas uma confirmação das saídas do modelo (a IDF negou essas alegações). Em duas
investigações, Abraham sugere que esses sistemas são pelo menos parcialmente
responsáveis pela escala sem precedentes de
destruição da atual ofensiva militar, especialmente durante as primeiras
semanas.
De fato, as Forças de
Defesa de Israel (IDF) se gabaram de ter lançado quatro mil toneladas de bombas na
Faixa de Gaza nos primeiros cinco dias da operação. Segundo a própria admissão da
IDF, metade dessas bombas foram lançadas em chamados alvos de poder. Alvos de
poder são estruturas civis não militares, como edifícios públicos ou
apartamentos em altos edifícios, localizados em áreas densas que, se
bombardeados, podem causar consideráveis danos à infraestrutura civil. De fato,
são escolhidos precisamente por essa razão.
A lógica por trás dos
alvos de poder pode ser rastreada até a doutrina de Dahiya, uma estratégia
militar que legitima a destruição desproporcional de civis durante a guerra de
Israel com o Hezbollah em 2006, defendida pelo comandante da IDF na época, Gadi
Eisenkot. Embora a IDF não tenha utilizado oficialmente tais alvos de poder
contra os palestinos até sua campanha militar contra Gaza em 2014, o sistema Gospel
permitiu que a Doutrina de Dahiya fosse implementada em uma escala
mais massiva, gerando alvos em uma taxa mais rápida do que podem ser
bombardeados, enquanto mantém alguma credibilidade internacional contra
alegações de bombardeios indiscriminados.
O porta-voz da IDF,
Daniel Hagari, reiterou sucintamente a
doutrina de Dahiya no dia 10 de outubro de 2023: “Estamos focados no que causa
o máximo de dano.” Isso refletiu a conclusão original de Eisenkot em 2008: “Aplicaremos força desproporcional… e causaremos grandes danos
e destruição lá.” Eisenkot fez parte do gabinete de guerra israelense formado
por Benjamin Netanyahu em 11 de outubro do ano passado, até renunciar pouco
depois de Benny Gantz em junho de 2024, o que levou Netanyahu a desmantelar o
gabinete.
O princípio da proporcionalidade visa
prevenir o uso excessivo de força contra civis, um uso desproporcional em
relação aos ganhos militares buscados, e é um dos princípios fundamentais do
direito internacional humanitário. Na prática, violações desse princípio são
difíceis de provar, a menos que sejam exibidas com orgulho pelos perpetradores.
Não está claro até que
ponto a IDF ainda está utilizando a tecnologia de IA descrita pelo +972 na
fase atual de sua operação militar. Também não está claro quão útil tal
tecnologia seria na fase atual, dada a destruição generalizada que Israel já
causou, com a maioria das casas, hospitais, edifícios governamentais,
escritórios de ONGs e escolas danificados ou destruídos; eletricidade em grande
parte cortada; e palestinos famintos e deslocados frequentemente mudando de
local para escapar dos ataques israelenses e encontrar abrigo.
No entanto, é
totalmente possível que Israel possa empregar os mesmos sistemas contra o
Líbano se uma conflagração maior eclodir. Israel também tem um histórico de
venda de tecnologias militares para outros países, incluindo outros países que
também cometeram violações dos direitos humanos.
A equipe homem-máquina
Em campanhas militares
anteriores nas quais os alvos de assassinato eram selecionados de forma mais
manual, a seleção de cada um envolvia um longo processo de incriminação que
envolvia a verificação cruzada de informações.
Embora esse processo
fosse gerenciável quando o grupo de alvos incluía apenas altos funcionários do
Hamas, tornou-se mais complicado à medida que a IDF expandiu sua lista de alvos
potenciais para incluir todos os operativos de baixo escalão na busca de seu
objetivo declarado de erradicar o Hamas. Israel usou esse objetivo, por mais
elevado que fosse, como uma justificativa para o uso de IA para automatizar e
acelerar o processo de geração de alvos.
Lavanda é um modelo
treinado para identificar qualquer e todos os membros do Hamas e da Jihad
Islâmica Palestina (PIJ), independentemente da patente, com o objetivo
explícito de gerar uma lista de alvos. O modelo Lavanda que as fontes de
Abraham descreveram é muito semelhante ao que o chefe da Unidade 8200 da IDF
descreveu tanto em um e-book autopublicado em 2021 intitulado The
Human-Machine Team: How to Create Synergy Between Human and Artificial
Intelligence That Will Revolutionize Our World (A Equipe
Humano-Máquina: Como Criar Sinergia Entre Inteligência Humana e Artificial Que
Revolucionará Nosso Mundo), sob o pseudônimo de Brigadeiro General Y. S.,
quanto em uma apresentação que ele fez em
uma conferência de IA organizada pela Universidade de Tel Aviv no início de
2023.
Dada a natureza
altamente sensível do trabalho da Unidade 8200, a identidade de seu comandante
geralmente é classificada durante o seu mandato. No entanto, a identidade do
atual comandante, Yossi Sariel, foi ironicamente comprometida devido às
próprias práticas de cibersegurança deficientes do comandante, já que seu
e-book autopublicado estava vinculado à sua conta pessoal do Google.
Abraham obteve slides
da apresentação de IA de Sariel em 2023 na Universidade de Tel Aviv, que
incluíam uma representação pictórica de um modelo de aprendizado de máquina,
que aparentemente foi implantado pela primeira vez na campanha militar de
Israel em Gaza em 2021. O aprendizado de máquina é um campo interdisciplinar
que combina conceitos e técnicas de matemática, ciência da computação e
estatística. Ele constrói modelos que podem aprender padrões a partir de dados
de treinamento e generalizar essas descobertas para novos dados, frequentemente
na forma de previsões ou outras inferências.
Os problemas de
aprendizado de máquina são comumente divididos em aprendizado supervisionado e
não supervisionado, dependendo se os dados de treinamento são rotulados ou não
rotulados, ou quanta supervisão o modelo tem ao aprender com os dados de
treinamento. O esquema de Sariel foi apresentado com o título “PU Learning.” O
termo provavelmente se refere a “aprendizado positivo e não rotulado”, um caso
especial de problemas de aprendizado semi-supervisionado no qual os dados de
treinamento para um algoritmo de classificação incluem apenas rótulos para a
classe positiva.
O algoritmo de
classificação deve, portanto, aprender a prever se uma amostra é um membro da
classe positiva ou negativa com base apenas em ter acesso a exemplos positivos
nos dados de treinamento. Neste caso, as palavras “positivo” e “negativo”
referem-se a se a amostra, ou indivíduo, é um militante ou não. Isso significa
que, nos dados de treinamento (e talvez na estratégia e ideologia militar da
IDF de maneira mais ampla), não há uma categoria para civis palestinos.
As características
usadas para classificar indivíduos foram coletadas de uma ampla gama de fontes
de vigilância, provavelmente sob a supervisão da Unidade 8200, incluindo registros de telefone, mídias sociais, fotografias,
vigilância visual e contatos sociais. O volume impressionante de informações de
vigilância que Israel, um dos principais desenvolvedores e exportadores de
cibertecnologia do mundo, coleta sobre os palestinos, especialmente em Gaza, é
surpreendente e torna extremamente difícil entender por que civis conhecidos
não seriam rotulados como negativos nos dados de treinamento.
Em 2014, quarenta e
três veteranos que serviram na Unidade 8200 assinaram uma carta criticando a
unidade e se recusando a continuar no serviço, dizendo que “Informações que são
coletadas e armazenadas [pela Unidade 8200] prejudicam pessoas inocentes.”
Grande parte dos dados, armazenamento de dados e poder de computação do governo
israelense vem do Google e da Amazon,
proporcionados por contratos plurianuais e multibilionários.
Decisão
Embora os modelos
pareçam precisos, na prática, são vagos e flexíveis o suficiente para acomodar
(e esconder) uma infinidade de intenções. Construir um sistema de IA envolve um
conjunto quase ilimitado de pontos de decisão.
Em primeiro lugar,
esses pontos de decisão envolvem a especificação do problema, a coleta e
manipulação de dados de treinamento (incluindo a rotulagem de amostras), a
seleção e parametrização do algoritmo, a seleção e engenharia das
características a serem incluídas no modelo e, finalmente, o processo de
treinamento e validação do modelo. Cada um desses pontos de decisão está
associado a preconceitos e suposições, que devem ser cuidadosamente
considerados e equilibrados entre si.
Uma suposição comum
para algoritmos usados em problemas de PU Learning é que as amostras rotuladas
como positivas no conjunto de treinamento são selecionadas completamente ao
acaso, independentemente das características ou atributos das amostras. Embora essa
suposição seja frequentemente violada no mundo real — como quase certamente é o
caso para a rotulagem de militantes do Hamas e da PIJ — ela permite uma maior
gama de escolhas entre algoritmos.
Sob essa suposição, no
entanto, não é possível estimar a precisão do modelo, apenas a aproximação.
Ambas são medidas estatísticas de precisão: a precisão de um modelo refere-se à
proporção de previsões positivas que são, de fato, de acordo com a verdade real,
verdadeiramente positivas, levando em conta quaisquer falsos positivos que o
modelo possa ter gerado, enquanto a revocação de um modelo refere-se à
proporção de amostras positivas nos dados que o modelo classifica corretamente.
Um modelo hipotético
que previsse todas as amostras como positivas teria uma aproximação perfeita
(identificaria corretamente toda a classe positiva), mas uma precisão ruim
(classificaria incorretamente toda a classe negativa como positiva, gerando
muitos falsos positivos). Dado que o objetivo declarado do governo israelense
desde 7 de outubro tem sido erradicar o Hamas, só se pode supor que a IDF —
mesmo que recentemente tenha se distanciado desse objetivo — está mais preocupada em otimizar a
revocação do modelo em vez de sua precisão, mesmo que isso venha às custas de
gerar mais falsos positivos (falhas em detectar civis como tal).
De fato, múltiplas declarações de
Netanyahu e ex-membros do gabinete de guerra israelense — sem mencionar o
castigo coletivo e a destruição em massa das condições de vida em Gaza — lançam
dúvidas sobre se palestinos inocentes sequer existem como uma categoria
ontológica para a IDF. Se não há palestinos inocentes, qualquer medição da
precisão do modelo é supérflua.
Preocupantemente, as
fontes de Abraham insinuam que o conjunto de treinamento inclui não apenas
militantes conhecidos do Hamas e da PIJ, mas também servidores públicos que
trabalham no ministério de segurança de Gaza, que ajudam a administrar o
governo controlado pelo Hamas, mas não são membros do Hamas, nem ativistas
políticos. Não seria surpreendente que a IDF rotulasse servidores públicos que
trabalham em um governo do Hamas como inimigos de Israel, dada a definição
notoriamente ampla de terroristas da IDF. Mas isso também criaria um problema
sério para o modelo, assumindo que ele de fato foi treinado apenas com dados
positivos e não rotulados. Se essas amostras fossem rotuladas como positivas,
significaria que o modelo aprenderia a associar características compartilhadas
entre servidores públicos com a classe positiva, resultando em classificações
incorretas.
De fato, segundo as
fontes de Abraham, o Lavender erroneamente almeja civis que compartilham o
mesmo nome que um militante suspeito, têm padrões de comunicação altamente
correlacionados com militantes suspeitos do Hamas (como servidores públicos),
ou receberam um telefone móvel que foi uma vez associado a um militante
suspeito do Hamas. E embora o modelo seja conhecido por cometer erros aproximadamente
10% das vezes, a saída não é examinada além da necessidade ocasional de
confirmar que os alvos são do sexo masculino (em geral, a maioria dos homens,
mesmo crianças, são assumidos como militantes pela IDF).
Como o modelo prevê a
probabilidade de que um determinado indivíduo seja um militante, a lista de
alvos, ou presumidos militantes, pode ser encurtada ou alongada mudando o
limite em que essa probabilidade é convertida em uma variável binária,
militante ou não. Alguém com uma probabilidade de 70% é assumido como
militante? Apenas mais de 50%? Não sabemos, mas a resposta pode mudar de um dia
para o outro ou de semana para semana.
Na prática, você pode
ajustar o limite para gerar o número de alvos desejado, seja porque, como
explicou uma das fontes de Abraham, você está sendo pressionado para “trazer…
mais alvos” ou porque precisa reduzir temporariamente devido à pressão dos EUA.
·
Listas de alvos
Embora não saibamos a
faixa de limites usados, ou a faixa de probabilidades geradas pelo modelo,
sabemos, graças à reportagem de Abraham, que os limites eram de fato alterados
regularmente, às vezes de forma arbitrária e às vezes explicitamente para tornar
a lista mais longa. Essas mudanças eram frequentemente feitas por oficiais
militares de baixa patente que têm muito pouca visão sobre o funcionamento
interno do modelo e não estão autorizados a definir a estratégia militar.
Isso significa que
técnicos de baixa patente são autorizados a definir os limites nos quais as
pessoas vivem ou morrem. Dado que os alvos são intencionalmente bombardeados em
suas casas, mudar um determinado limite por uma pequena margem poderia, plausivelmente,
levar a um aumento significativo nas vítimas civis.
Ao alterar as
características, os dados de treinamento ou — mais simplesmente e facilmente —
o limite de probabilidade pelo qual as pessoas são classificadas como
militantes, pode-se configurar o modelo para fornecer essencialmente qualquer
resultado desejado, mantendo uma negação plausível de que foi baseado em uma
decisão enviesada e subjetiva.
A lista de alvos
gerada pelo Lavender é alimentada em um sistema auxiliar, “Onde Está o Papai?”,
que rastreia esses alvos humanos ao longo da Faixa de Gaza e detecta o momento
em que eles entram em suas respectivas residências familiares. Embora no passado
a IDF tenha bombardeado apenas oficiais militares seniores em suas casas, todos
os alvos — incluindo presumidos operativos de baixo nível do Hamas e,
inevitavelmente, devido a erros do modelo, civis palestinos rotulados
erroneamente — foram intencionalmente bombardeados em suas casas durante a
Operação Espadas de Ferro.
Bombardear
intencionalmente casas onde não há atividade militar viola diretamente o
princípio da proporcionalidade. Fazer isso inevitavelmente leva a um aumento do
número de mortes civis e conflita com a alegação persistente da IDF de que o
uso de civis pelo Hamas como “escudos humanos” é o culpado pelo número de
mortes em Gaza.
Abraham também aponta
que esses sistemas interligados — e as decisões humanas que os sustentam —
podem ser a razão pela qual dezenas de famílias foram totalmente eliminadas. Se foi a intenção explícita dos oficiais da IDF aniquilar
famílias inteiras parece ter pouca relevância se houver um procedimento em
vigor que sistematicamente o faça.
Além disso, foi tomada
a decisão de usar bombas “cegas” não
guiadas ao bombardear esses alvos, resultando em ainda mais danos colaterais ou
vítimas civis, apesar de Israel ter um dos exércitos mais avançados e bem
equipados do mundo. A IDF justificou essa decisão com base na conservação de
armamentos caros, como mísseis guiados de precisão, embora isso resulte
diretamente na perda de mais vidas humanas. Israel se preocupa mais em
economizar com bombas (das quais possui um suprimento quase infinito) do que em
salvar vidas de palestinos inocentes.
·
Cobertura tecnológica
Éclaro que a Operação
Espadas de Ferro não depende desses sistemas para precisão — o número de mortes
civis indica claramente que nem os alvos gerados por IA nem as armas são
precisas (é claro, isso significa tomar o objetivo de Israel de erradicar apenas
militantes ao pé da letra). O que eles oferecem, em vez de precisão, é escala e
eficiência — é muito mais fácil e rápido para uma máquina gerar alvos do que
para um humano — além de fornecer uma cobertura tecnológica para se esconder.
Como ninguém é
responsável pela geração dos alvos, todos os envolvidos na operação têm uma
negação plausível. E porque é mais fácil confiar e ter fé em uma máquina, à
qual frequentemente atribuímos infalibilidade e objetividade, do que em um
humano imperfeito e abalado por emoções (de fato, isso é corroborado por
algumas das fontes de Abraham), também podemos fazer menos escrutínio das
decisões da máquina.
Este é o caso mesmo
que essas decisões da máquina possam ser mais precisamente vistas como decisões
humanas implementadas e automatizadas por uma máquina. De fato, embora os
soldados entrevistados por Abraham sugiram que esses sistemas substituíram a
tomada de decisão humana, o que esses sistemas parecem ter feito é obscurecer
essa tomada de decisão.
Foi uma decisão humana
permitir “dano colateral” de até vinte pessoas para alvos presumidos de nível
júnior e até cem pessoas para alvos presumidos de nível sênior. Foi uma decisão
humana bombardear as casas de alvos de nível júnior, otimizar para ter uma
aproximação e não precisão, implantar um modelo com pelo menos uma taxa de erro
de 10% e implementar limites arbitrários que determinam vida e morte.
Os seres humanos
decidiram usar dados altamente confusos para gerar características para o
modelo, rotular servidores civis como militantes do Hamas e “eliminar o gargalo
humano” na geração de alvos para gerar alvos a uma taxa mais rápida do que
poderiam ser bombardeados. Eles também decidiram mirar em estruturas civis em
áreas densas e usar bombas não guiadas para atingir esses alvos, criando ainda
mais danos colaterais.
A desumanização e a
difusão de responsabilidade desempenham um papel poderoso em explicar como
atrocidades podem ser cometidas, especialmente em grande escala. Ao reduzir
toda uma população a um vetor de números e usar máquinas para construir uma “fábrica de assassinatos em massa”, esses sistemas de IA ajudam a fornecer alguns dos mecanismos
psicológicos necessários para cometer os tipos de atrocidades que vemos se
desenrolar nos últimos nove meses em Gaza.
·
Terceirização do controle
AIDF oculta sua lógica
genocida por trás de um sofisticado verniz tecnológico, esperando que isso
confira alguma legitimidade às suas ações militares enquanto obscurece a dura
realidade de sua guerra assimétrica. Foi exatamente isso que fez em meados de outubro
de 2023, quando oficiais israelenses concederam aos repórteres do New York Times
acesso limitado aos dados de seus sistemas de
rastreamento, “esperando mostrar que estavam fazendo o possível para reduzir os
danos aos civis.” No primeiro mês da guerra, mais de 10.000 palestinos foram
mortos por Israel, incluindo 4.000 crianças e 2.700 mulheres.
Devemos levar a sério
a discrepância entre a “equipe humano-máquina” que o Brigadeiro General Y. S.
idealiza em seu livro e os sistemas de IA implementados sob a liderança de
Yossi Sariel. O que um modelo idealizado faz na teoria, que muitas vezes parece
razoável e benigno, será sempre diferente do que o modelo faz na prática.
O que os separa, em
grande parte, é uma cascata de decisões humanas obscuras e exigências externas,
algumas aparentemente triviais, outras implícitas, algumas significativas.
Modelos não são moralmente responsáveis pelas decisões automatizadas que fazem;
os agentes humanos que os selecionam, treinam e implementam são, assim como os
humanos que permitem passivamente que isso aconteça.
À medida que a IA se
torna mais integral ao funcionamento de nossas vidas cotidianas e sociedades
mais amplas, devemos garantir que não estamos ignorando ou abdicando de nossa
responsabilidade moral pelo que os modelos de IA estão fazendo. E à medida que
modelos generativos como o ChatGPT abrem a porta para a automação do
aprendizado de máquina em si, devemos ser especialmente cautelosos.
O perigo mais urgente
e premente da IA não é que as máquinas desenvolvam uma inteligência desenfreada
e comecem a agir fora do controle humano. É que nós, como seres humanos, nos
tornemos excessivamente dependentes da IA, terceirizando voluntariamente nossa
própria tomada de decisão e controle. Como sempre, somos a maior ameaça à nossa
humanidade, não as máquinas.
Fonte: Por Jennifer
Lenow – tradução de Sofia Schurig, em
Jacobin Brasil
Nenhum comentário:
Postar um comentário