segunda-feira, 29 de abril de 2024

Funcionários dos EUA afirmam que Israel pode estar violando direito internacional em Gaza

Altos funcionários do Departamento de Estado dos EUA informaram em memorando interno ao secretário de Estado, Antony Blinken, que não consideram 'críveis nem confiáveis' as garantias de Israel de utilizar armas fornecidas pelos EUA em conformidade com o direito internacional humanitário, informou neste sábado (27) a agência de notícias Reuters.

De acordo com a matéria, o memorando, emitido pelo presidente Joe Biden em fevereiro, Blinken deve informar ao Congresso até 8 de maio se considera críveis as garantias de Israel de que o uso de armas dos EUA não viola a lei dos EUA ou internacional.

Uma submissão conjunta de quatro escritórios levantou "preocupações sérias sobre a não conformidade" com o direito internacional humanitário durante a condução da guerra de Gaza por parte de Israel.

Até 24 de março, pelo menos sete escritórios do Departamento de Estado haviam enviado contribuições para um memorando inicial para Blinken. As contribuições para o memorando fornecem a imagem mais extensa até o momento das divisões dentro do órgão sobre se Israel poderia estar violando o direito internacional humanitário em Gaza.

Segundo a avaliação as garantias de Israel não eram "nem críveis nem confiáveis", tendo como base ações militares israelenses que, segundo os funcionários, levantam "questões sérias" sobre possíveis violações do direito internacional humanitário.

"Estes incluíram ataques repetidos a locais protegidos e infraestrutura civil; níveis inconcebivelmente altos de danos civis para vantagem militar; pouca ação para investigar violações ou responsabilizar aqueles que são responsáveis por danos civis significativos e matando trabalhadores humanitários e jornalistas a uma taxa sem precedentes", menciona o texto.

A matéria cita ainda 11 instâncias de ações militares israelenses que os funcionários disseram restringir arbitrariamente a ajuda humanitária, incluindo a rejeição de caminhões inteiros de ajuda, limitações artificiais em inspeções, bem como ataques repetidos a locais humanitários que não deveriam ser atingidos.

¨      Israel realizou ataques mortais em zonas marcadas como seguras para palestinos em Gaza

Israel realizou ataques mortais em áreas de Gaza marcadas como zonas seguras para civis palestinos, informou a NBC News, citando uma investigação que conduziu sobre o assunto.

A reportagem afirma que investigou sete ataques israelenses que mataram palestinos em áreas do sul de Gaza designadas como zonas seguras por Israel, entre janeiro e abril.

Segundo o canal norte-americano, em 18 de dezembro as Forças Armadas israelenses lançaram panfletos em Gaza que identificavam os bairros de Tal Al Sultan, Al Zuhur e Al Shaboura como seguros e diziam aos residentes de Gaza para procurarem abrigo na região.

No entanto, a emissora afirma que os três locais foram atingidos por ataques aéreos israelenses.

As equipes de câmera da NBC News filmaram o depois de seis ataques em Rafah e de um mais ao norte, na zona humanitária de Al-Mawasi, também designada como segura por Israel.

"As equipes compilaram as coordenadas GPS de cada ataque, todos atingindo uma área identificada pelo Exército israelense como zona de evacuação, em um mapa interativo on-line que foi divulgado em 1º de dezembro. O mapa não foi atualizado desde então, e as Forças de Defesa de Israel disseram à NBC News em um comunicado no domingo [21] que ele permanecia preciso", diz a matéria.

Agências internacionais de ajuda e residentes de Gaza têm chamado o mapa de confuso e difícil de ler. Os apagões regulares de Internet desde o início da guerra também teriam dificultado o acesso dos civis a ele.

A operação de Israel em Gaza resultou, até agora, na morte de mais de 34 mil palestinos e deixou mais de 77 mil feridos. Tel Aviv reage ao Hamas há seis meses, desde que o grupo palestino fez um ataque sem precedentes ao Estado judeu, em 7 de outubro de 2023, que deixou 1,2 mil mortos e 240 pessoas feitas reféns.

O premiê israelense, Benjamin Netanyahu, prometeu repetidamente invadir Rafah, cidade palestina que faz fronteira com o Egito, para garantir "a destruição ou a eliminação" do Hamas. Isso tem causado uma crescente preocupação quanto à segurança dos civis que buscaram abrigo na região.

¨      UE e ONU exigem investigação independente sobre corpos em valas comuns em Gaza

Representantes da União Europeia (UE) e da Organização das Nações Unidas (ONU) pediram uma investigação independente sobre os mais de 300 corpos encontrados em valas comuns em dois hospitais da Faixa de Gaza, onde ocorre o conflito armado.

De acordo com as estatísticas, 324 corpos foram encontrados pela Defesa Civil nesta semana no Complexo Médico Nasser, na cidade de Khan Younis. Ao menos 381 cadáveres foram recuperados em al-Shifa.

O porta-voz do serviço diplomático da UE, Peter Stano, afirmou que “poderiam ter sido cometidas violações dos direitos humanos internacionais”. A ONU solicitou uma “investigação independente, eficaz e transparente” sobre o caso.

O Alto Comissário da ONU para os Direitos Humanos, Volker Turk, afirmou estar “horrorizado” com os relatos e declarou que “o assassinato de civis, detidos e outros que estejam fora de combate é um crime de guerra”.

Números do Ministério da Saúde de Gaza apontaram que mais de 34 mil palestinos morreram desde o dia 7 de outubro do ano passado em consequência dos bombardeios das forças israelenses.

Autoridades jurídicas da África do Sul denunciaram o governo de Israel na Corte Internacional de Justiça pelo crime de genocídio. A CIJ apenas recomendou que os israelenses parassem com o massacre em Gaza, o que não aconteceu.

¨      Hamas divulga vídeo de reféns e reprova Israel por rejeitar acordo de cessar-fogo

O movimento palestino Hamas divulgou neste sábado (27) um vídeo de duas pessoas que foram feitas reféns na ofensiva surpresa ocorrida em 7 de outubro passado, quando várias localidades do sul de Israel foram invadidas pelo grupo e mais de 240 pessoas capturadas.

Os dois reféns que aparecem no vídeo foram identificados por organizações israelenses que demandam um acordo para a libertação de todos os capturados como Keith Siegel, de 64 anos de idade, com dupla nacionalidade estadunidense-israelense, e Omri Miran, de 46 anos.

Siegel foi sequestrado do kibutz Kfar Aza em 7 de outubro, enquanto Miran foi privado de sua liberdade no kibutz Nir Oz, ao sul de Israel.

No vídeo, ambas as pessoas expressam esperanças de um acordo de reféns para garantir sua libertação. "Quero dizer à minha família que os amo muito. Tenho belas lembranças da Páscoa do ano passado que celebramos juntos", diz Siegel no vídeo, aos prantos.

"Estamos em perigo aqui, há bombas, é estressante e assustador", afirma Siegel. "Quero dizer à minha família que os amo muito. É importante para mim que saibam que estou bem", acrescenta.

"Minha querida família, sinto falta de todos vocês", afirma Omri Miran. "Espero que pelo menos possamos celebrar juntos o próximo Yom Ha'atzmaut [Dia da Independência de Israel, celebrado em 14 de maio]", diz Miran, que acrescenta que está há 202 dias sob o domínio do Hamas.

"A situação aqui é desagradável, difícil e há muitas bombas. É hora de chegarmos a um acordo que nos tire daqui sãos e salvos. Continuem protestando para que haja um acordo já", conclui o homem.

#Hamas released a new propaganda video showing two men, American-Israeli Keith Siegel and Omri Miran, two of the 133 hostages still held in #Gaza. Families have given permission for the video to be shown. It's been 204 days since Keith and Omri last saw their families. They,… pic.twitter.com/N0hnZkuIoQ

No vídeo, há uma mensagem em hebraico dirigida à população de Israel:

"A pressão militar não conseguiu libertar seus filhos presos. Matou dezenas deles e impediu que participassem da Páscoa com seus entes queridos. Seus líderes nazistas não se importam com o destino de seus filhos presos e seus sentimentos. Perceba antes que seja tarde demais", conforme tradução do jornal Times of Israel.

Após o Hamas divulgar o vídeo, ocorreu uma concentração na capital de Israel, Tel Aviv, em que os cidadãos pediram um acordo que garanta a libertação de todos os reféns.

·        Acordos de cessar-fogo frustrados

Segundo fontes locais, o Hamas está considerando a última contraproposta de Israel para um cessar-fogo em Gaza, depois que foi relatado que o mediador Egito enviou uma delegação a Israel para reativar negociações estagnadas.

Em uma entrevista concedida pela primeira vez à imprensa israelense, Majed Al-Ansari, conselheiro do primeiro-ministro do Catar, declarou ao Haaretz que Israel e o Hamas não estão demonstrando comprometimento suficiente para alcançar um acordo de cessar-fogo e libertação de reféns.

"Toda vez que nos aproximamos de um acordo, há sabotagem de ambas as partes", disse Al-Ansari, que culpou ambos os lados pelos fracassos no conflito.

Uma fonte envolvida na mediação entre Israel e o Hamas declarou no sábado à noite ao Haaretz que o fato de o Hamas ter dito que está disposto a liberar um número relativamente baixo de reféns é um sinal positivo.

"Parece que o Hamas parou de mentir sobre os números e decidiu apresentar o número de reféns vivos que é capaz de libertar em um acordo", disse a fonte, segundo o jornal israelense. "Só podemos esperar que a nova versão que apresentaram seja um sinal de uma maior disposição para avançar em direção a um acordo", completou.

¨      Gaza: IA está mudando a velocidade, a escala e os danos da guerra moderna

À medida que a campanha aérea de Israel em Gaza entra no seu sexto mês após os ataques terroristas do Hamas em 7 de Outubro, tem sido descrita por especialistas como uma das campanhas mais implacáveis ​​e mortíferas da história recente. É também um dos primeiros a ser coordenado, em parte, por algoritmos.

A inteligência artificial (IA) está a ser utilizada para ajudar em tudo, desde a identificação e priorização de alvos até à atribuição das armas a serem utilizadas contra esses alvos.

Os comentaristas acadêmicos há muito se concentram no potencial dos algoritmos na guerra para destacar como eles aumentarão a velocidade e a escala dos combates. Mas, como mostram revelações recentes, os algoritmos estão agora a ser utilizados em grande escala e em contextos urbanos densamente povoados.

Isto inclui os conflitos em Gaza e na Ucrânia , mas também no Iémen, no Iraque e na Síria, onde os EUA estão a experimentar algoritmos para atingir potenciais terroristas através do Projecto Maven .

No meio desta aceleração, é crucial analisar cuidadosamente o que realmente significa a utilização da IA ​​na guerra. É importante fazê-lo, não na perspectiva daqueles que estão no poder, mas na perspectiva dos oficiais que o executam e dos civis que sofrem os seus efeitos violentos em Gaza.

Este foco destaca os limites de manter um ser humano informado como uma resposta central e à prova de falhas ao uso da IA ​​na guerra. À medida que a seleção de alvos baseada na IA se torna cada vez mais informatizada, a velocidade da seleção de alvos acelera, a supervisão humana diminui e a escala dos danos civis aumenta.

·        Velocidade de segmentação

Relatórios das publicações israelitas +927 Magazine e Local Call dão-nos um vislumbre da experiência de 13 responsáveis ​​israelitas que trabalharam com três sistemas de tomada de decisão baseados em IA em Gaza, chamados Gospel, Lavender e Wheres Daddy?.

Estes sistemas são supostamente treinados para reconhecer características que se acredita caracterizarem as pessoas associadas ao braço militar do Hamas. Esses recursos incluem pertencer ao mesmo grupo de WhatsApp de um militante conhecido, trocar de celular a cada poucos meses ou mudar de endereço com frequência.

Os sistemas são então supostamente encarregados de analisar dados recolhidos sobre os 2,3 milhões de residentes de Gaza através de vigilância em massa. Com base nas características pré-determinadas, os sistemas prevêem a probabilidade de uma pessoa ser membro do Hamas (Lavanda), de um edifício abrigar tal pessoa (Evangelho) ou de tal pessoa ter entrado em sua casa (Onde está o papai?).

Nos relatórios investigativos mencionados acima, os agentes de inteligência explicaram como o Gospel os ajudou a passar “de 50 alvos por ano” para “100 alvos num dia” – e que, no seu auge, Lavender conseguiu “gerar 37.000 pessoas como potenciais alvos humanos”. ” Eles também refletiram sobre como o uso da IA ​​reduz o tempo de deliberação: Eu investiria 20 segundos para cada alvo nesta fase eu não tinha nenhum valor agregado como ser humano isso economizou muito tempo.

Embora os detalhes desta verificação manual provavelmente permaneçam confidenciais, uma taxa de imprecisão de 10% para um sistema usado para tomar 37.000 decisões de vida ou morte resultará inerentemente em realidades devastadoramente destrutivas.

Mas o mais importante é que qualquer número de taxa de precisão que pareça razoavelmente alto torna mais provável que a segmentação algorítmica seja confiável, pois permite que a confiança seja delegada ao sistema de IA. Como disse um oficial das FDI à revista +927: “Devido ao escopo e à magnitude, o protocolo era que, mesmo que você não tivesse certeza de que a máquina estava certa, você sabia que estatisticamente ela estava bem. Então você vai em frente.

A IDF negou estas revelações numa declaração oficial ao The Guardian . Um porta-voz disse que embora as IDF utilizem “ferramentas de gestão de informação […] para ajudar os analistas de inteligência a recolher e analisar de forma otimizada a inteligência, obtida de uma variedade de fontes, não utiliza um sistema de IA que identifique agentes terroristas”.

Desde então, no entanto, o Guardian publicou um vídeo de um alto funcionário da Unidade de Inteligência de elite israelense 8200 falando no ano passado sobre o uso de “pó mágico” de aprendizado de máquina para ajudar a identificar alvos do Hamas em Gaza.

O jornal também confirmou que o comandante da mesma unidade escreveu em 2021, sob um pseudónimo, que tais tecnologias de IA resolveriam o “gargalo humano tanto para a localização dos novos alvos como para a tomada de decisões para aprová-los”.

·        Escala de danos civis

A IA acelera a velocidade da guerra em termos do número de alvos produzidos e do tempo para decidir sobre eles.

Embora estes sistemas diminuam inerentemente a capacidade dos seres humanos de controlar a validade dos alvos gerados por computador, eles simultaneamente fazem com que estas decisões pareçam mais objectivas e estatisticamente correctas devido ao valor que geralmente atribuímos aos sistemas baseados em computador e aos seus resultados.

Isto permite uma maior normalização da matança dirigida por máquinas, o que equivale a mais violência, e não menos.

Embora os relatos dos meios de comunicação social se concentrem frequentemente no número de vítimas, as contagens de corpos – semelhantes aos alvos gerados por computador – têm a tendência de apresentar as vítimas como objectos que podem ser contados. Isto reforça uma imagem muito estéril da guerra.

Encobre a realidade de mais de 34 mil pessoas mortas, 766 mil feridas e a destruição ou danos a 60% dos edifícios de Gaza e das pessoas deslocadas, a falta de acesso a electricidade, alimentos, água e medicamentos.

Não enfatiza as histórias horríveis de como essas coisas tendem a se agravar. Por exemplo, um civil, Shorouk al-Rantisi , teria sido encontrado sob os escombros após um ataque aéreo no campo de refugiados de Jabalia e teve de esperar 12 dias para ser operado sem analgésicos e agora reside noutro campo de refugiados sem água corrente para cuidar de suas feridas.

Além de aumentar a velocidade de seleção de alvos e, portanto, exacerbar os padrões previsíveis de danos civis na guerra urbana, a guerra algorítmica é susceptível de agravar os danos de formas novas e pouco investigadas. Em primeiro lugar, à medida que os civis fogem das suas casas destruídas, mudam frequentemente de endereço ou dão os seus celulares a entes queridos.

Tal comportamento de sobrevivência corresponde ao que os relatórios sobre Lavender dizem que o sistema de IA foi programado para identificar como provável associação com o Hamas. Estes civis, sem o saberem, tornam-se suspeitos de serem alvos letais.

Além da segmentação, estes sistemas habilitados para IA também informam formas adicionais de violência. Uma história ilustrativa é a do poeta em fuga Mosab Abu Toha , que teria sido preso e torturado num posto de controle militar.

Em última análise, foi relatado pelo New York Times que ele, juntamente com centenas de outros palestinos, foi injustamente identificado como Hamas pelo uso do reconhecimento facial de IA e das fotos do Google pelas IDF.

Para além das mortes, dos feridos e da destruição, estes são os efeitos agravantes da guerra algorítmica. Torna-se uma prisão psíquica onde as pessoas sabem que estão sob vigilância constante, mas não sabem quais “características” comportamentais ou físicas serão acionadas pela máquina.

Do nosso trabalho como analistas da utilização da IA ​​na guerra, é evidente que o nosso foco não deve ser apenas na capacidade técnica dos sistemas de IA ou na figura do humano no circuito como um dispositivo à prova de falhas.

Devemos também considerar a capacidade destes sistemas de alterar as interações humano-máquina-humano, onde aqueles que executam a violência algorítmica estão apenas carimbando o resultado gerado pelo sistema de IA, e aqueles que sofrem a violência são desumanizados de formas sem precedentes.

 

Fonte: Sputnik Brasil/Reuters/The Conversation

 

Nenhum comentário:

Postar um comentário