Como pedófilos estão vendendo imagens de abuso infantil feitas com
inteligência artificial
Pedófilos estão usando a tecnologia de inteligência
artificial (IA) para criar e vender material de abuso sexual infantil realista,
revela investigação da BBC.
Alguns deles têm acesso a essas imagens pagando por
assinaturas de contas em sites de compartilhamento de conteúdo convencional,
como o Patreon.
O Patreon diz que tem uma política de
"tolerância zero" com relação a esse tipo de imagens em seu site.
O Conselho Nacional de Chefes de Polícia do Reino
Unido (NPCC, na sigla em inglês) afirmou que é "ultrajante" que
algumas plataformas estejam obtendo "grandes lucros" sem assumir
"responsabilidade moral" por seu conteúdo.
A GCHQ — agência de inteligência, segurança e
cibernética do governo britânico — respondeu à reportagem, dizendo: "Os
criminosos praticantes de abuso sexual infantil adotam todas as tecnologias e
alguns acreditam que o futuro do material de abuso sexual infantil está no
conteúdo gerado por IA".
Os criadores das imagens de abuso estão usando um
software de IA chamado Stable Diffusion, que gera imagens para uso em arte ou
design gráfico.
A IA permite que os computadores executem tarefas
que normalmente requerem inteligência humana.
O software Stable Diffusion permite que os usuários
descrevam em palavras as imagens que desejam — e o programa então cria a
imagem.
Mas a BBC descobriu que o programa está sendo usado
para criar imagens realistas de abuso sexual infantil, incluindo estupro de
bebês e crianças.
As equipes de combate a abuso infantil online da
polícia do Reino Unido dizem que já estão encontrando esse tipo de conteúdo nas
suas investigações.
A pesquisadora e jornalista freelancer Octavia
Sheepshanks vem investigando esse problema há vários meses. Ela contatou a BBC
por meio da instituição de caridade infantil NSPCC para revelar suas
descobertas.
"Desde que as imagens geradas por IA se
tornaram possíveis, a internet foi inundada com imagens. Não são apenas meninas
muito jovens. Eles [pedófilos] estão falando sobre crianças pequenas", diz
ela.
Perante as leis britânicas, uma
"pseudoimagem" gerada por computador que retrate abuso sexual
infantil é tratada da mesma forma que uma imagem real. É ilegal possuir,
publicar ou transferir esse tipo de conteúdo no Reino Unido.
O líder do NPCC para proteção infantil, Ian
Critchley, diz que é errado argumentar que, porque nenhuma criança real foi
retratada em tais imagens "sintéticas", ninguém foi prejudicado por
isso.
Ele alerta que um pedófilo pode "se mover, ao
longo da escala de delito, do pensamento, para imagens sintéticas e então para
o abuso real de uma criança".
Segundo a investigação da BBC, as imagens de abuso
estão sendo compartilhadas por meio de um processo em três etapas:
• Os
pedófilos criam imagens usando software de IA;
• Promovem
imagens em plataformas como o site japonês de compartilhamento de fotos Pixiv;
• Essas
contas têm links para direcionar os clientes para imagens mais explícitas, que
as pessoas podem pagar para visualizar em contas em sites como o Patreon.
Alguns dos criadores de imagens estão postando em
uma popular plataforma de mídia social japonesa chamada Pixiv, que é usada
principalmente por artistas que compartilham mangás e animes.
Mas como o site está hospedado no Japão, onde o
compartilhamento de desenhos infantis sexualizados não é ilegal, os criadores
utilizam a plataforma para divulgar seus trabalhos em grupos e por meio de
hashtags — que indexam os assuntos por meio de palavras-chave.
Um porta-voz da Pixiv diz que a empresa está dando
prioridade a essa questão. Ele afirmou em maio que a Pixiv proibiu todas as
representações fotorrealistas de conteúdo sexual envolvendo menores.
A empresa diz que fortaleceu seus sistemas de
monitoramento e está alocando recursos substanciais para neutralizar os
problemas relacionados aos desenvolvimentos da IA.
Sheepshanks disse à BBC que sua pesquisa sugere que
os usuários parecem estar fazendo imagens de abuso infantil em escala
industrial.
"O volume é enorme. As pessoas [os criadores]
dizem 'nós temos como meta fazer pelo menos mil imagens por mês'", diz
ela.
Comentários de usuários em imagens individuais no
Pixiv deixam claro que eles têm interesse sexual em crianças, com alguns
usuários até se oferecendo para fornecer imagens e vídeos de abuso que não
foram gerados por IA.
Sheepshanks tem monitorado alguns dos grupos na
plataforma.
"Dentro desses grupos, com 100 membros, as
pessoas compartilham coisas como: 'Veja, aqui tem um link com coisas
reais'", diz ela.
• Diferentes
níveis de preços
Muitas das contas no Pixiv incluem links em suas
biografias direcionando as pessoas para o que chamam de "conteúdo sem
censura" no site de compartilhamento de conteúdo Patreon, com sede nos
Estados Unidos.
O Patreon está avaliado em aproximadamente US$ 4
bilhões (R$ 19 bilhões) e afirma ter mais de 250 mil criadores — a maioria
deles, contas legítimas pertencentes a celebridades, jornalistas e escritores
conhecidos.
Os fãs podem apoiar os criadores fazendo
assinaturas mensais para acessar blogs, podcasts, vídeos e imagens — pagando
valores a partir de US$ 3,85 (cerca de R$ 18) por mês.
Mas nossa investigação encontrou contas do Patreon
que vendem imagens obscenas fotorrealistas de crianças geradas por IA, com
diferentes níveis de preços, dependendo do tipo de material solicitado.
Um usuário escreveu em sua conta: "Eu treino
minhas garotas no meu PC", acrescentando que elas mostram "submissão".
Por US$ 8,30 (cerca de R$ 30) por mês, outro usuário ofereceu "arte
exclusiva sem censura".
A BBC enviou ao Patreon um exemplo, que a
plataforma confirmou ser "semirrealista e violar nossas políticas". A
plataforma disse que a conta foi removida imediatamente.
O Patreon disse ter uma política de
"tolerância zero", insistindo: "Os criadores não podem financiar
conteúdo dedicado a temas sexuais envolvendo menores".
A empresa disse que o aumento de conteúdo nocivo
gerado por IA na internet é "real e angustiante", acrescentando que
"identificou e removeu quantidades crescentes" desse tipo de
material.
"Já banimos material sintético de exploração
infantil gerado por IA", afirmou a plataforma, acrescentando contar com
equipes dedicadas, tecnologia e parcerias para "manter a juventude
segura".
O gerador de imagens AI Stable Diffusion foi criado
como uma colaboração global entre acadêmicos e várias empresas, lideradas pela
empresa britânica Stability AI.
Várias versões foram lançadas, com restrições no
código que controlam o tipo de conteúdo que pode ser feito.
Mas, no ano passado, uma versão anterior de
"código aberto" foi lançada ao público, permitindo aos usuários
remover quaisquer filtros e usar o software para produzir qualquer imagem —
incluindo as ilegais.
A Stability AI disse à BBC que "proíbe
qualquer uso indevido para fins ilegais ou imorais em nossas plataformas, e
nossas políticas são claras de que isso inclui material de abuso sexual
infantil".
"Apoiamos fortemente os esforços de aplicação
da lei contra aqueles que fazem uso indevido de nossos produtos para fins
ilegais ou nefastos", diz a Stability AI.
À medida que a inteligência artificial continua se
desenvolvendo rapidamente, questões são levantadas sobre os riscos futuros que
ela pode representar para a privacidade das pessoas, seus direitos humanos ou
sua segurança.
Jo [nome completo omitido por motivos de
segurança], líder da missão contra o abuso sexual infantil do GCHQ, disse à
BBC: "O GCHQ apóia a aplicação da lei para se manter à frente de ameaças
emergentes, como conteúdo gerado por IA, e garantir que não haja espaço seguro
para infratores".
Ian Critchley, do NPCC, diz que está preocupado que
a enxurrada de IA realista ou imagens "sintéticas" possa retardar o
processo de identificação de vítimas reais de abuso.
Ele explica: "Isso cria uma demanda adicional,
em termos de policiamento, para identificar onde uma criança real, onde quer
que esteja no mundo, está sendo abusada em vez de uma criança artificial ou
sintética".
Critchley diz acreditar que este é um momento
crucial para a sociedade definir o futuro da internet.
Fonte: BBC News Mundo
Nenhum comentário:
Postar um comentário