Quando a IA converte-se em máquina de morte
A atual guerra em
Gaza, agora em seu nono mês de combates e com quase 40 mil palestinos mortos de
acordo com os últimos números oficiais, será tristemente lembrada no futuro por
muitos motivos. O número assustador de mortes e ferimentos de civis é apenas um
deles. Também entrará para a história por ter sido o primeiro genocídio
transmitido ao vivo pelos nossos celulares, precedido pelo anúncio do ministro da
Defesa de Israel, Yoav Galant, de um bloqueio total de água, alimentos,
combustível, eletricidade e ajuda humanitária à Faixa, em flagrante violação do
Direito Internacional Humanitário (DIH). Também nos lembraremos dessa guerra
como aquela em que seu líder, Benjamin Netanyahu, foi recebido com honras no
Congresso dos EUA, enquanto enfrentava acusações de genocídio pelo Tribunal
Internacional de Justiça das Nações Unidas e um mandado de prisão do Tribunal
Penal Internacional.
Mas esse terrível
massacre também será estudado por outro motivo muito menos conhecido, embora
igualmente alarmante: a ofensiva desencadeada após os ataques de 7 de outubro
marca a primeira ocasião em que um exército, o de Israel, incorporou de forma
maciça e sistemática o uso de Inteligência Artificial (IA) em suas operações
militares, o que desempenhou um papel central na escala sem precedentes de
devastação humana e material desse conflito. Um ponto de virada na história
militar, com profundas implicações legais, éticas e científicas que precisam
ser abordadas com urgência pela comunidade internacional.
“Uma fábrica de
assassinatos em massa”
Foi assim que um
oficial de inteligência israelense descreveu o funcionamento do conjunto de
sistemas de IA que o exército de seu país está usando de forma integrada na
guerra de Gaza. A revelação foi feita em um artigo da +972 Magazine, um meio de comunicação formado por jornalistas palestinos e
israelenses e crítico da ocupação. Publicado no final de novembro do ano
passado, o texto gerou repercussão importante na mídia internacional, embora
não tão grande quanto a necessária. Um segundo artigo do
mesmo veículo de mídia, publicado em abril, completou o quadro da sinistra rede
tecnocientífica que sustenta as operações israelenses em Gaza.
A investigação da
Revista +972 revelou como Israel faz uso combinado de dois sistemas de IA para
a geração de alvos militares em Gaza. Por um lado, a IA Habsora (Gospel em
inglês, ou Boas Novas, em português), é capaz de identificar
edifícios que abrigariam membros e agentes militares do Hamas e da Jihad
Islâmica, os dois principais grupos de resistência armada que operam em Gaza.
Paralelamente, a IA Lavender faz um trabalho semelhante com
foco em indivíduos, buscando identificar ativistas de ambas as organizações.
Ambos os sistemas trabalham buscando padrões com base em uma série de elementos
fornecidos em uma fase anterior de “treinamento”. O sistema é completado por
uma terceira IA chamada Where’s Daddy? que rastreia alvos
humanos depois que são localizados, priorizando o bombardeio de suas casas,
pois a probabilidade de um ataque bem-sucedido é considerada muito maior. A
designação de alvos militares é sempre acompanhada de uma estimativa das
“baixas colaterais” de civis. Israel considera aceitável que 15 pereçam, quando
o alvo é um soldado do Hamas; ou que 300 percam a vida, se se trata de um
oficial sênior.
O resultado desse
sistema é que, nas primeiras semanas da guerra, Israel conseguiu gerar mais de
37 mil alvos militares, em comparação com os 50 por ano que os serviços de
inteligência conseguiam identificar anteriormente. Esses alvos militares estão
diretamente ligados aos ataques israelenses e ajudam a explicar as
impressionantes 15 mil mortes só nas primeiras seis semanas do conflito.
O exército de Israel
(que se autodenomina “IDF”) não negou a existência desses sistemas, mas
argumenta que eles não determinam seus alvos militares e apenas fornecem
informações adicionais aos serviços de inteligência na condução de suas
operações. No entanto, vários testemunhos revelaram que, devido à enorme
pressão nos estágios iniciais da guerra para atingir o Hamas com a maior
intensidade possível, o tempo médio para validação humana do alvo proposto pelo
Lavender era de cerca de 20 segundos. Na prática, isso passou a significar uma
validação quase automática, com apenas uma verificação se o alvo era homem ou
mulher, e uma aceitação sistemática no caso de alvos masculinos.
O problema gerado pela
introdução da IA em operações militares não está nos sistemas em si, mas nas
atitudes e comportamentos que eles geram. As tecnologias contribuem para moldar
as percepções e as ações das pessoas, gerando novas práticas e formas de agir,
desempenhando um papel ativo na tomada de decisões e na formação do moral
coletivo. No caso em questão, a quase automação da seleção de alvos militares
rotiniza um ato que tem consequências diretas sobre a vida e a morte de outras
pessoas, minimizando a tomada de decisões por parte do pessoal militar. Após
décadas de convivência próxima entre máquinas e pessoas, passamos a aceitar
como válido o que as máquinas dizem, especialmente nos casos em que elas geram
informações em um ritmo rápido demais para que possamos acompanhá-las. A
consequência direta disso é a existência de uma aparente “lacuna de
responsabilidade”. Cria-se a ilusão de que as pessoas que validam os alvos
militares a partir de dados fornecidos pela IA estão isentas de responsabilidade.
O surgimento de
sistemas de IA na arena militar também gerou uma preocupação crescente sobre
sua compatibilidade ou não com o Direito Internacional Humanitário (DIH), as
leis que regem a guerra. Cada vez mais vozes estão pedindo uma estrutura
normativa que regule o uso da IA para fins militares a fim de garantir a
compatibilidade com o DIH. Outros defendem diretamente sua proibição com base na total incompatibilidade entre a IA e o DIH. Na
esfera judicial, as consequências do uso desses sistemas na população civil
estão no centro dos processos em andamento do governo do primeiro-ministro
israelense Benjamin Netanyahu, tanto no Tribunal Internacional de Justiça
quanto no Tribunal Penal Internacional.
·
Israel e tecnologia: uma relação de
conveniência
Para entender melhor a
estrutura em que se deram os avanços tecnológicos implantados em Gaza pelo
exército israelense, vale a pena prestar atenção ao ecossistema de Pesquisa e
Desenvilvimento (P&D) israelense. Atualmente, Israel está em terceiro lugar
no mundo em investimentos em IA, atrás apenas dos Estados Unidos e da China. O
país tem o maior número de start-ups per capita do mundo e conta com uma
estrutura legislativa que favorece muito sua proliferação. O próprio Netanyahu
tem se referido repetidamente à IA como a “nova eletricidade”, afirmando que
aqueles que dominarem a IA, dominarão o futuro.
Não é coincidência
que, em junho de 2023, Sam Altman e Ilya Sutskever, os cofundadores da OpenAI,
a empresa por trás do ChatGPT, tenham visitado Israel e se encontrado pessoalmente com Netanyahu. Nem que duas
das principais empresas de tecnologia do mundo, Intel e NVIDIA, confirmassem
recentemente dois projetos multimilionários em Israel para a construção de uma
fábrica de microchips e um dos mais poderosos supercomputadores até hoje,
respectivamente. O Estado israelense favorece de modo ativo a inovação
tecnológica, que acaba revertendo e adaptando às necessidades de seu aparato
militar. Tecnologias que Israel vende posteriormente a outras nações com o incentivo
de terem sido comprovadas em combate.
·
IA e progresso, uma faca de dois gumes
O rápido
desenvolvimento da IA nos últimos dez anos e sua incursão cada vez mais
difundida em praticamente todas as esferas de nossas sociedades, da medicina às
finanças, da criação artística à tradução simultânea, gerou preocupações
crescentes sobre os efeitos negativos e/ou não intencionais de muitos desses
novos sistemas. Paralelamente ao crescimento da IA, a comunidade acadêmica e de
pesquisa liderou uma série de iniciativas que pedem o estabelecimento de uma
estrutura comum para o desenvolvimento da IA que esteja ancorada nos princípios
e valores éticos e morais das democracias modernas, incluindo os Princípios de Asilomar e
a Declaração de Barcelona.
Em todas essas iniciativas, encontramos um apelo à necessidade urgente de
regulamentar o desenvolvimento da IA para garantir que as necessidades humanas
sejam sempre mantidas no centro, por meio de uma estrutura ética que certifique
os desenvolvimentos tecnológicos em IA e uma demanda por transparência e
responsabilidade dos sistemas.
É amplamente aceito
que a IA tem um enorme potencial para enfrentar os principais desafios
contemporâneos, como as mudanças climáticas ou a proliferação de pandemias, mas
também que ela representa uma ameaça direta aos direitos humanos básicos. Em
seu último relatório anual, a Anistia Internacional alertou pela
primeira vez sobre a ameaça do avanço descontrolado da IA e o risco de que ela
aumente as desigualdades raciais, a vigilância e o discurso de ódio na
Internet.
O filósofo português
Boaventura de Sousa Santos, em uma brilhante reflexão sobre incerteza,
medo e esperança, alertou sobre como o conhecimento científico e os
desenvolvimentos tecnológicos derivados. Estes tendem – ele argumenta – a ser
controlados por determinados grupos sociais e a beneficiá-los, deixando o
restante da população à margem, de modo que a produção científica é realizada
“sobre eles e eventualmente contra eles e, em todo caso, nunca com eles”.
O número devastador de
vítimas civis na Faixa de Gaza é, dependendo do ponto de vista, uma ilustração
dramática de como as tecnologias moldam nossas sociedades, mentalidades e
comportamentos, e destaca a necessidade urgente de regulamentar o desenvolvimento
de novas tecnologias baseadas em IA. Uma regulamentação que, no entanto, parece
distante e até utópica no caso de tecnologias para fins militares, contra as
quais as demandas por transparência e livre acesso se chocam frontalmente.
Diante desse aparente impasse, uma moratória total sobre o uso da IA para fins
militares, até que uma regulamentação acordada internacionalmente esteja em
vigor, parece ser uma solução lógica, mas é improvável que seja aceita pelas
principais potências militares.
No mesmo ano em que o
texto de Boaventura de Sousa foi publicado, houve um avanço nas
técnicas de detecção de câncer de mama por meio da colaboração homem-máquina.
Ao combinar os resultados da patologia, que tinha uma margem de erro de 3,4%, e
os de um sistema de IA, que tinha uma margem de erro de 7,5%, a margem de erro
foi reduzida para apenas 0,52%. O progresso científico melhorou muito a
qualidade de vida em alguns aspectos e piorou-a em outros. Graças à tecnologia,
temos uma vida mais longa e melhor, mas também estamos levando o planeta em que
vivemos a limites que podem acabar tornando-o inabitável.
Fonte: Por Javier
Bornstein, em El Salto - Tradução Antonio Martins, em Outras Palavras
Nenhum comentário:
Postar um comentário