Funcionários dos EUA afirmam que Israel
pode estar violando direito internacional em Gaza
Altos funcionários do
Departamento de Estado dos EUA informaram em memorando interno ao secretário de
Estado, Antony Blinken, que não consideram 'críveis nem confiáveis' as
garantias de Israel de utilizar armas fornecidas pelos EUA em conformidade com
o direito internacional humanitário, informou neste sábado (27) a agência de
notícias Reuters.
De acordo com a
matéria, o memorando, emitido pelo presidente Joe Biden em fevereiro, Blinken
deve informar ao Congresso até 8 de maio se considera críveis as garantias de
Israel de que o uso de armas dos EUA não viola a lei dos EUA ou internacional.
Uma submissão conjunta
de quatro escritórios levantou "preocupações sérias sobre a não
conformidade" com o direito internacional humanitário durante a condução
da guerra de Gaza por parte de Israel.
Até 24 de março, pelo
menos sete escritórios do Departamento de Estado haviam enviado contribuições
para um memorando inicial para Blinken. As contribuições para o memorando
fornecem a imagem mais extensa até o momento das divisões dentro do órgão sobre
se Israel poderia estar violando o direito internacional humanitário em Gaza.
Segundo a avaliação as
garantias de Israel não eram "nem críveis nem confiáveis", tendo como
base ações militares israelenses que, segundo os funcionários, levantam
"questões sérias" sobre possíveis violações do direito internacional humanitário.
"Estes incluíram
ataques repetidos a locais protegidos e infraestrutura civil; níveis
inconcebivelmente altos de danos civis para vantagem militar; pouca ação para
investigar violações ou responsabilizar aqueles que são responsáveis por danos
civis significativos e matando trabalhadores humanitários e jornalistas a uma
taxa sem precedentes", menciona o texto.
A matéria cita ainda
11 instâncias de ações militares israelenses que os funcionários disseram
restringir arbitrariamente a ajuda humanitária, incluindo a rejeição de
caminhões inteiros de ajuda, limitações artificiais em inspeções, bem como
ataques repetidos a locais humanitários que não deveriam ser atingidos.
¨ Israel realizou ataques mortais em zonas marcadas como seguras
para palestinos em Gaza
Israel realizou
ataques mortais em áreas de Gaza marcadas como zonas seguras para civis
palestinos, informou a NBC News, citando uma investigação que conduziu sobre o
assunto.
A reportagem afirma
que investigou sete ataques israelenses que mataram palestinos em áreas do sul
de Gaza designadas como zonas seguras por Israel, entre janeiro e abril.
Segundo o canal
norte-americano, em 18 de dezembro as Forças Armadas israelenses lançaram
panfletos em Gaza que identificavam os bairros de Tal Al Sultan, Al Zuhur e Al
Shaboura como seguros e diziam aos residentes de Gaza para procurarem abrigo na
região.
No entanto, a emissora
afirma que os três locais foram atingidos por ataques aéreos israelenses.
As equipes de câmera
da NBC News filmaram o depois de seis ataques em Rafah e de um mais ao norte,
na zona humanitária de Al-Mawasi, também designada como segura por Israel.
"As equipes
compilaram as coordenadas GPS de cada ataque, todos atingindo uma área
identificada pelo Exército israelense como zona de evacuação, em um mapa
interativo on-line que foi divulgado em 1º de dezembro. O mapa não foi
atualizado desde então, e as Forças de Defesa de Israel disseram à NBC News em
um comunicado no domingo [21] que ele permanecia preciso", diz a matéria.
Agências
internacionais de ajuda e residentes de Gaza têm chamado o mapa de confuso e
difícil de ler. Os apagões regulares de Internet desde o início da guerra
também teriam dificultado o acesso dos civis a ele.
A operação de Israel
em Gaza resultou, até agora, na morte de mais de 34 mil palestinos e deixou
mais de 77 mil feridos. Tel Aviv reage ao Hamas há seis meses, desde que o
grupo palestino fez um ataque sem precedentes ao Estado judeu, em 7 de outubro
de 2023, que deixou 1,2 mil mortos e 240 pessoas feitas reféns.
O premiê israelense,
Benjamin Netanyahu, prometeu repetidamente invadir Rafah, cidade palestina que
faz fronteira com o Egito, para garantir "a destruição ou a
eliminação" do Hamas. Isso tem causado uma crescente preocupação quanto à
segurança dos civis que buscaram abrigo na região.
¨ UE e ONU exigem investigação independente sobre corpos em valas
comuns em Gaza
Representantes da
União Europeia (UE) e da Organização das Nações Unidas (ONU) pediram uma
investigação independente sobre os mais de 300 corpos encontrados em valas
comuns em dois hospitais da Faixa de Gaza, onde ocorre o conflito armado.
De acordo com as
estatísticas, 324 corpos foram encontrados pela Defesa Civil nesta semana no
Complexo Médico Nasser, na cidade de Khan Younis. Ao menos 381 cadáveres foram
recuperados em al-Shifa.
O porta-voz do serviço
diplomático da UE, Peter Stano, afirmou que “poderiam ter sido cometidas
violações dos direitos humanos internacionais”. A ONU solicitou uma
“investigação independente, eficaz e transparente” sobre o caso.
O Alto Comissário da
ONU para os Direitos Humanos, Volker Turk, afirmou estar “horrorizado” com os
relatos e declarou que “o assassinato de civis, detidos e outros que estejam
fora de combate é um crime de guerra”.
Números do Ministério
da Saúde de Gaza apontaram que mais de 34 mil palestinos morreram desde o dia 7
de outubro do ano passado em consequência dos bombardeios das forças
israelenses.
Autoridades jurídicas
da África do Sul denunciaram o governo de Israel na Corte Internacional de
Justiça pelo crime de genocídio. A CIJ apenas recomendou que os israelenses
parassem com o massacre em Gaza, o que não aconteceu.
¨ Hamas divulga vídeo de reféns e reprova Israel por rejeitar
acordo de cessar-fogo
O movimento palestino
Hamas divulgou neste sábado (27) um vídeo de duas pessoas que foram feitas
reféns na ofensiva surpresa ocorrida em 7 de outubro passado, quando várias
localidades do sul de Israel foram invadidas pelo grupo e mais de 240 pessoas
capturadas.
Os dois reféns que
aparecem no vídeo foram identificados por organizações israelenses que demandam
um acordo para a libertação de todos os capturados como Keith Siegel, de 64
anos de idade, com dupla nacionalidade estadunidense-israelense, e Omri Miran, de
46 anos.
Siegel foi sequestrado
do kibutz Kfar Aza em 7 de outubro, enquanto Miran foi privado de sua liberdade
no kibutz Nir Oz, ao sul de Israel.
No vídeo, ambas as
pessoas expressam esperanças de um acordo de reféns para garantir sua
libertação. "Quero dizer à minha família que os amo muito. Tenho belas
lembranças da Páscoa do ano passado que celebramos juntos", diz Siegel no
vídeo, aos prantos.
"Estamos em
perigo aqui, há bombas, é estressante e assustador", afirma Siegel.
"Quero dizer à minha família que os amo muito. É importante para mim que
saibam que estou bem", acrescenta.
"Minha querida
família, sinto falta de todos vocês", afirma Omri Miran. "Espero que
pelo menos possamos celebrar juntos o próximo Yom Ha'atzmaut [Dia da
Independência de Israel, celebrado em 14 de maio]", diz Miran, que
acrescenta que está há 202 dias sob o domínio do Hamas.
"A situação aqui
é desagradável, difícil e há muitas bombas. É hora de chegarmos a um acordo que
nos tire daqui sãos e salvos. Continuem protestando para que haja um acordo
já", conclui o homem.
#Hamas released a new propaganda video showing two men, American-Israeli
Keith Siegel and Omri Miran, two of the 133 hostages still held in #Gaza.
Families have given permission for the video to be shown. It's been 204 days
since Keith and Omri last saw their families. They,…
pic.twitter.com/N0hnZkuIoQ
No vídeo, há uma
mensagem em hebraico dirigida à população de Israel:
"A pressão
militar não conseguiu libertar seus filhos presos. Matou dezenas deles e
impediu que participassem da Páscoa com seus entes queridos. Seus líderes
nazistas não se importam com o destino de seus filhos presos e seus
sentimentos. Perceba antes que seja tarde demais", conforme tradução do
jornal Times of Israel.
Após o Hamas divulgar
o vídeo, ocorreu uma concentração na capital de Israel, Tel Aviv, em que os
cidadãos pediram um acordo que garanta a libertação de todos os reféns.
·
Acordos de cessar-fogo frustrados
Segundo fontes locais,
o Hamas está considerando a última contraproposta de Israel para um cessar-fogo
em Gaza, depois que foi relatado que o mediador Egito enviou uma delegação a
Israel para reativar negociações estagnadas.
Em uma entrevista
concedida pela primeira vez à imprensa israelense, Majed Al-Ansari, conselheiro
do primeiro-ministro do Catar, declarou ao Haaretz que Israel e o Hamas não
estão demonstrando comprometimento suficiente para alcançar um acordo de
cessar-fogo e libertação de reféns.
"Toda vez que nos
aproximamos de um acordo, há sabotagem de ambas as partes", disse
Al-Ansari, que culpou ambos os lados pelos fracassos no conflito.
Uma fonte envolvida na
mediação entre Israel e o Hamas declarou no sábado à noite ao Haaretz que o
fato de o Hamas ter dito que está disposto a liberar um número relativamente
baixo de reféns é um sinal positivo.
"Parece que o
Hamas parou de mentir sobre os números e decidiu apresentar o número de reféns
vivos que é capaz de libertar em um acordo", disse a fonte, segundo o
jornal israelense. "Só podemos esperar que a nova versão que apresentaram
seja um sinal de uma maior disposição para avançar em direção a um
acordo", completou.
¨ Gaza: IA está mudando a velocidade, a escala e os danos da
guerra moderna
À medida que a
campanha aérea de Israel em Gaza entra no seu sexto mês após os ataques
terroristas do Hamas em 7 de Outubro, tem sido descrita por especialistas como
uma das campanhas mais implacáveis e mortíferas da história recente. É também um dos primeiros a
ser coordenado, em parte, por algoritmos.
A inteligência
artificial (IA) está a ser utilizada para ajudar em tudo, desde a identificação
e priorização de alvos até à atribuição das armas a serem utilizadas contra
esses alvos.
Os comentaristas
acadêmicos há muito se concentram no potencial dos algoritmos na guerra para
destacar como eles aumentarão a velocidade e a escala dos combates. Mas, como
mostram revelações recentes, os algoritmos estão agora a ser utilizados em
grande escala e em contextos urbanos densamente povoados.
Isto inclui os
conflitos em Gaza e na Ucrânia , mas também no Iémen, no Iraque e na Síria,
onde os EUA estão a experimentar algoritmos para atingir potenciais terroristas
através do Projecto Maven .
No meio desta
aceleração, é crucial analisar cuidadosamente o que realmente significa a
utilização da IA na guerra. É importante fazê-lo, não na perspectiva
daqueles que estão no poder, mas na
perspectiva dos oficiais que o executam e dos civis que sofrem os seus efeitos
violentos em Gaza.
Este foco destaca os
limites de manter um ser humano informado como uma resposta central e à prova
de falhas ao uso da IA na guerra. À medida que a seleção de alvos baseada na IA se torna cada vez mais informatizada, a
velocidade da seleção de alvos
acelera, a supervisão humana diminui e a
escala dos danos civis aumenta.
·
Velocidade de
segmentação
Relatórios das
publicações israelitas +927 Magazine e Local Call dão-nos um vislumbre da
experiência de 13 responsáveis israelitas que trabalharam com três sistemas de tomada de decisão baseados em IA em Gaza, chamados “Gospel”, “Lavender” e “Where’s Daddy?”.
Estes sistemas são
supostamente treinados para reconhecer características que se acredita
caracterizarem as pessoas associadas ao braço militar do Hamas. Esses recursos
incluem pertencer ao mesmo grupo de WhatsApp de um militante conhecido, trocar
de celular a cada poucos meses ou mudar de endereço com frequência.
Os sistemas são então
supostamente encarregados de analisar dados recolhidos sobre os 2,3 milhões de
residentes de Gaza através de vigilância em massa. Com base nas características
pré-determinadas, os sistemas prevêem a probabilidade de uma pessoa ser membro
do Hamas (Lavanda), de um edifício abrigar tal pessoa (Evangelho) ou de tal
pessoa ter entrado em sua casa (Onde está o papai?).
Nos relatórios
investigativos mencionados acima, os agentes de inteligência explicaram como o
Gospel os ajudou a passar “de 50 alvos por ano” para “100 alvos num dia” – e
que, no seu auge, Lavender conseguiu “gerar 37.000 pessoas como potenciais
alvos humanos”. ” Eles também refletiram sobre como o uso da IA reduz o tempo de deliberação: “Eu investiria 20
segundos para cada alvo nesta fase… eu não tinha nenhum valor
agregado como ser humano… isso economizou muito
tempo”.
Embora os detalhes
desta verificação manual provavelmente permaneçam confidenciais, uma taxa de
imprecisão de 10% para um sistema usado para tomar 37.000 decisões de vida ou
morte resultará inerentemente em realidades devastadoramente destrutivas.
Mas o mais importante
é que qualquer número de taxa de precisão que pareça razoavelmente alto torna
mais provável que a segmentação algorítmica seja confiável, pois permite que a
confiança seja delegada ao sistema de IA. Como disse um oficial das FDI à revista
+927: “Devido ao escopo e à magnitude, o protocolo era que, mesmo que você não
tivesse certeza de que a máquina estava certa, você sabia que estatisticamente
ela estava bem. Então você vai em frente.
A IDF negou estas
revelações numa declaração oficial ao The Guardian . Um porta-voz disse que
embora as IDF utilizem “ferramentas de gestão de informação […] para ajudar os
analistas de inteligência a recolher e analisar de forma otimizada a
inteligência, obtida de uma variedade de fontes, não utiliza um sistema de IA
que identifique agentes terroristas”.
Desde então, no
entanto, o Guardian publicou um vídeo de um alto funcionário da Unidade de
Inteligência de elite israelense 8200 falando no ano passado sobre o uso de “pó
mágico” de aprendizado de máquina para ajudar a identificar alvos do Hamas em
Gaza.
O jornal também
confirmou que o comandante da mesma unidade escreveu em 2021, sob um
pseudónimo, que tais tecnologias de IA resolveriam o “gargalo humano tanto para
a localização dos novos alvos como para a tomada de decisões para aprová-los”.
·
Escala de danos civis
A IA acelera a
velocidade da guerra em termos do número de alvos produzidos e do tempo para
decidir sobre eles.
Embora estes sistemas
diminuam inerentemente a capacidade dos seres humanos de controlar a validade
dos alvos gerados por computador, eles simultaneamente fazem com que estas
decisões pareçam mais objectivas e estatisticamente correctas devido ao valor que
geralmente atribuímos aos sistemas baseados em computador e aos seus
resultados.
Isto permite uma maior
normalização da matança dirigida por máquinas, o que equivale a mais violência,
e não menos.
Embora os relatos dos
meios de comunicação social se concentrem frequentemente no número de vítimas,
as contagens de corpos – semelhantes aos alvos gerados por computador – têm a
tendência de apresentar as vítimas como objectos que podem ser contados. Isto
reforça uma imagem muito estéril da guerra.
Encobre a realidade de
mais de 34 mil pessoas mortas, 766 mil feridas e a destruição ou danos a 60%
dos edifícios de Gaza e das pessoas deslocadas, a falta de acesso a
electricidade, alimentos, água e medicamentos.
Não enfatiza as
histórias horríveis de como essas coisas tendem a se agravar. Por exemplo, um
civil, Shorouk al-Rantisi , teria sido encontrado sob os escombros após um
ataque aéreo no campo de refugiados de Jabalia e teve de esperar 12 dias para
ser operado sem analgésicos e agora reside noutro campo de refugiados sem água
corrente para cuidar de suas feridas.
Além de aumentar a
velocidade de seleção de alvos e, portanto, exacerbar os padrões previsíveis de
danos civis na guerra urbana, a guerra algorítmica é susceptível de agravar os
danos de formas novas e pouco investigadas. Em primeiro lugar, à medida que os
civis fogem das suas casas destruídas, mudam frequentemente de endereço ou dão
os seus celulares a entes queridos.
Tal comportamento de
sobrevivência corresponde ao que os relatórios sobre Lavender dizem que o
sistema de IA foi programado para identificar como provável associação com o
Hamas. Estes civis, sem o saberem, tornam-se suspeitos de serem alvos letais.
Além da segmentação,
estes sistemas habilitados para IA também informam formas adicionais de
violência. Uma história ilustrativa é a do poeta em fuga Mosab Abu Toha , que
teria sido preso e torturado num posto de controle militar.
Em última análise, foi
relatado pelo New York Times que ele, juntamente com centenas de outros
palestinos, foi injustamente identificado como Hamas pelo uso do reconhecimento
facial de IA e das fotos do Google pelas IDF.
Para além das mortes,
dos feridos e da destruição, estes são os efeitos agravantes da guerra
algorítmica. Torna-se uma prisão psíquica onde as pessoas sabem que estão sob
vigilância constante, mas não sabem quais “características” comportamentais ou
físicas serão acionadas pela máquina.
Do nosso trabalho como
analistas da utilização da IA na guerra, é evidente que o nosso foco não deve ser apenas na capacidade técnica dos sistemas de IA ou na figura do humano no circuito como
um dispositivo à prova de falhas.
Devemos também
considerar a capacidade destes sistemas de alterar as interações
humano-máquina-humano, onde aqueles que executam a violência algorítmica estão
apenas carimbando o resultado gerado pelo sistema de IA, e aqueles que sofrem a
violência são desumanizados de formas sem precedentes.
Fonte: Sputnik Brasil/Reuters/The Conversation
Nenhum comentário:
Postar um comentário