Inteligência artificial: redes sociais apagam provas de crimes de guerra, aponta investigação
Uma investigação da BBC revelou que provas de
possíveis abusos de direitos humanos podem estar sendo apagadas para sempre
após serem excluídas por empresas de tecnologia.
As plataformas removem vídeos com violência muito
gráfica — muitas vezes usando inteligência artificial —, mas essas filmagens
que são retiradas sem serem arquivadas poderiam ajudar a processar criminosos
de guerra.
As gigantes de tecnologia Meta e YouTube dizem que
tentam equilibrar suas obrigações de manter provas contra criminosos e de
proteger usuários de conteúdo nocivo.
Mas Alan Rusbridger, que faz parte do Conselho de
Supervisão da Meta, diz que a indústria tem sido "excessivamente
cautelosa" em sua moderação.
As plataformas dizem que podem manter no ar material
gráfico quando ele é de interesse público — mas quando a BBC tentou publicar
imagens documentando ataques a civis na Ucrânia, elas foram rapidamente
excluídas.
A inteligência artificial (IA) consegue remover
conteúdo nocivo e ilegal em grande escala. Mas quando se trata de moderar
imagens violentas de guerras, as máquinas não percebem nuances que identificam
violações de direitos humanos.
Grupos de direitos humanos dizem que há uma
necessidade urgente de empresas de mídia social impedirem que essas informações
desapareçam.
"Você consegue entender porque elas
desenvolveram suas máquinas para derrubar algo que parece difícil ou traumático",
disse Rusbridger à BBC.
O Conselho de Supervisão da Meta do qual ele faz
parte foi criado por Mark Zuckerberg e é conhecido como uma espécie de
"tribunal supremo" independente para a empresa, proprietária do
Facebook e do Instagram.
"Eu acho que a próxima pergunta a se fazer para
eles é como devemos desenvolver as máquinas, sejam elas humanas ou de
inteligência artificial, para que tomem decisões mais razoáveis", diz
Rusbridger, ex-editor-chefe do jornal britânico Guardian.
Ninguém negaria o direito das empresas de tecnologia
de monitorar seu conteúdo, diz a Embaixadora dos EUA para Justiça Criminal
Global, Beth Van Schaak: "Acho que a preocupação acontece quando essa
informação desaparece repentinamente".
Ihor Zakharenko, um ex-jornalista de viagens,
detectou esse problema na Ucrânia. Desde a invasão russa, ele documenta ataques
a civis.
A BBC conversou com ele em um subúrbio de Kiev, onde
há um ano homens, mulheres e crianças foram mortos a tiros por tropas russas
enquanto tentavam fugir da ocupação.
Ele filmou carros queimados e os corpos atingidos —
pelo menos 17.
Ele queria postar os vídeos para que o mundo pudesse
ver o que aconteceu, contrariando a narrativa do Kremlin. Mas quando ele os
publicou no Facebook e no Instagram, os vídeos foram rapidamente retirados.
"Os próprios russos diziam que eram falsos,
[que] eles nunca tocavam em civis, lutavam apenas com o exército
ucraniano", disse Ihor.
Tentamos publicar as filmagens de Ihor no Instagram
e no YouTube usando contas fictícias.
O Instagram derrubou três dos quatro vídeos em um
minuto.
A princípio, o YouTube aplicou restrições de idade a
três vídeos, mas 10 minutos depois removeu todos.
Tentamos novamente — mas não conseguimos fazer o
upload. Fizemos um apelo para restaurar os vídeos, afirmando que eles incluíam
evidências de crimes de guerra, mas nosso pedido foi rejeitado.
O YouTube e a Meta dizem que, de acordo com suas
exceções para imagens gráficas de guerra de interesse público, o conteúdo que
normalmente seria removido por causa da violência gráfica pode ser mantido
online com visualização restrita a adultos caso haja interesse público. Mas
nossa experiência com os vídeos de Ihor sugere que essa exceção não está sendo
aplicada.
A Meta diz que responde "a solicitações legais
válidas de agências de aplicação da lei em todo o mundo" e afirmou:
"Continuamos a explorar meios adicionais para apoiar processos
internacionais de responsabilidade... consistentes com nossas obrigações legais
e de privacidade".
O YouTube diz que, embora tenha regras para conteúdo
gráfico de interesse público, "o YouTube não é um arquivo. Organizações de
direitos humanos; ativistas, defensores dos direitos humanos, pesquisadores,
jornalistas cidadãos e outros que documentam abusos dos direitos humanos (ou
outros crimes em potencial) devem observar as melhores práticas para proteger e
preservar seu conteúdo."
A BBC também conversou com Imad, que era dono de uma
farmácia em Aleppo, na Síria, até que uma bomba do governo sírio caiu nas
proximidades em 2013.
Ele lembra como a explosão encheu a sala de poeira e
fumaça. Ao ouvir gritos de socorro, ele foi ao mercado do lado e viu mãos,
pernas e cadáveres cobertos de sangue.
Equipes de TV locais capturaram essas cenas. A
filmagem foi postada no YouTube e no Facebook, mas posteriormente foi retirada.
No caos do conflito, jornalistas sírios disseram à
BBC que suas próprias gravações da filmagem original também foram destruídas em
bombardeios.
Anos depois, quando Imad estava solicitando asilo na
União Europeia, ele foi solicitado a fornecer documentos que comprovassem sua
presença no local.
"Eu tinha certeza de que minha farmácia havia
sido filmada pela câmera. Mas quando entrei na Internet, o link me levava a um
vídeo excluído."
Em resposta a esse tipo de incidente, organizações como
a Mnemonic, uma organização de direitos humanos com sede em Berlim, interveio
para arquivar imagens antes que elas desapareçam.
A Mnemonic desenvolveu uma ferramenta para baixar e
salvar automaticamente evidências de violações de direitos humanos — primeiro
na Síria e agora no Iêmen, Sudão e Ucrânia.
Eles salvaram mais de 700 mil imagens de zonas de
guerra antes de serem removidas da mídia social, incluindo três vídeos
mostrando o ataque perto da farmácia de Imad.
Cada imagem pode conter pistas para se descobrir o
que realmente aconteceu no campo de batalha — o local, a data ou o agressor.
Mas organizações como a Mnemonic não podem cobrir
todas as áreas de conflito ao redor do mundo.
Provar que crimes de guerra foram cometidos é
incrivelmente difícil — portanto, obter o máximo de fontes é vital.
"A verificação é como resolver um quebra-cabeça
— você junta informações aparentemente não relacionadas para construir uma
imagem mais ampla do que aconteceu", diz Olga Robinson, da BBC Verify.
A tarefa de arquivar material de código aberto —
disponível para praticamente qualquer pessoa nas mídias sociais — geralmente
recai sobre pessoas com a missão de ajudar seus parentes envolvidos em
conflitos violentos.
Rahwa mora nos Estados Unidos e tem família na
região de Tigray, na Etiópia, que foi assolada pela violência nos últimos anos
e onde as autoridades da Etiópia controlam rigidamente o fluxo de informações.
No entanto, com rede social, há um registro visual
de um conflito que, de outra forma, poderia permanecer oculto do mundo
exterior.
"Era nosso dever", diz Rahwa. "Passei
horas pesquisando e, quando você vê todo esse conteúdo online você tenta
verificar usando todas as ferramentas de inteligência de código aberto
disponíveis. Mas você não sabe se a sua própria família está bem."
Ativistas de direitos humanos dizem que há uma
necessidade urgente de um sistema formal para coletar e armazenar com segurança
o conteúdo excluído. Isso incluiria a preservação de metadados para ajudar a
verificar a autenticidade do conteúdo e provar que ele não foi adulterado.
Van Schaak, Embaixadora dos Estados Unidos para
Justiça Criminal Global, diz: "Precisamos criar um mecanismo pelo qual
essas informações possam ser preservadas para possíveis futuros exercícios de
responsabilização. As plataformas de mídia social devem estar dispostas a fazer
acordos com mecanismos de responsabilização em todo o mundo".
Fonte: BBC News Brasil
Nenhum comentário:
Postar um comentário