Conteúdos
de estupro coletivo de crianças em SP são vendidos em grupos sem intervenção
das plataformas
Um
estupro coletivo de duas crianças, de 7 e 10 anos, em São Paulo só chegou ao
conhecimento das autoridades após as imagens do crime circularem nas redes
sociais e a irmã de uma das vítimas reconhecê-la nas imagens.
Para
especialistas ouvidos pela BBC News Brasil, o caso evidencia o papel
ambivalente das empresas de tecnologia que administram essas plataformas.
Ao
mesmo tempo em que permitem a circulação de conteúdo ilegal, também podem
contribuir para denúncia e mobilização, ajudando a expor crimes e a pressionar
por investigação.
No caso
do estupro coletivo em São Paulo, segundo a Polícia Civil, a irmã de uma vítima
a identificou em um vídeo compartilhado na internet e procurou uma delegacia
para registrar a ocorrência. O crime havia ocorrido três dias antes, em 21 de
abril.
A
polícia diz ter identificado então os suspeitos e feito as primeiras apreensões
e prisões. Ao todo, sete pessoas são investigadas — quatro adolescentes já
foram apreendidos, um quinto está foragido e um homem adulto foi preso na
Bahia, de onde deve ser transferido para São Paulo.
Segundo
a delegada Janaína da Silva Dziadowczyk, responsável pelo caso, os suspeitos
eram vizinhos das vítimas e eram pessoas de sua confiança.
"Chamaram
para soltar pipa, eles foram atraídos para esse imóvel. Falaram 'vamos soltar
pipa, entra aqui que tem uma linha'", disse a delegada em entrevista
coletiva.
A
delegada afirmou ainda que as vítimas e seus familiares estavam sendo
pressionados na comunidade em que viviam para não registrarem boletim de
ocorrência na delegacia.
"Embora
as imagens estivessem circulando na internet, a família não havia registrado
queixa. O que me foi passado é que eles queriam resolver lá entre eles e não
queriam que a polícia tomasse conhecimento", disse Dziadowczyk.
Ela
ressaltou que, por conta desta pressão, as famílias das vítimas decidiram
deixar a comunidade em que viviam por medo de represálias.
"Teve
gente que saiu com a roupa do corpo. Então, foi uma dificuldade encontrar essas
vítimas", completou.
De
acordo com a investigação, o homem adulto teria iniciado as agressões e feito
as gravações, que depois foram compartilhadas por meio do WhatsApp e passaram a
circular nas redes sociais.
Segundo
a delegada Janaína Dziadowczyk, um dos adolescentes suspeitos de envolvimento
no crime disse que "foi uma brincadeira que acabou escalando".
"A
iniciativa de gravar foi do maior [de idade], foi ele quem começou, segundo
eles, as brincadeiras, e ele começou a gravar no próprio celular e depois pediu
que o outro menor gravasse."
Após a
identificação dos envolvidos, a polícia agora tenta rastrear a origem e a
disseminação das imagens.
"No
primeiro momento a gente tinha a prioridade de identificar os agressores. No
segundo momento, vamos atrás para saber quem divulgou essas imagens",
afirmou o delegado Júlio Geraldo, que também está à frente do caso.
As
especialistas ouvidas pela reportagem pontuam que as plataformas de redes
sociais e mensagens devem ser cobradas por como reagem para coibir o
compartilhamento desse tipo de conteúdo, embora pontuem ser difícil interromper
por completo sua circulação, especialmente em aplicativos como o WhastApp, por
conta da tecnologia que protege o acesso de terceiros às mensagens privadas.
Mas as
especialistas ressaltam que já existem tecnologias avançadas para fazer isso e
que a propagação de conteúdos de abuso infantil indicam que os controles
existentes não funcionaram.
Acrescentam
ainda que as empresas que administram essas redes e aplicativos têm
reiteradamente falhado no monitoramento e controle da divulgação e
comercialização destes, o que tem levado a uma "explosão" de casos
como este.
A BBC
News Brasil questionou a Meta, dona do WhatsApp, sobre quando tomou
conhecimento do caso, se identificou e removeu contas envolvidas na circulação
das imagens e quais medidas foram adotadas para impedir a redistribuição das
imagens.
A
reportagem questionou ainda a Meta se esse conteúdo foi detectado por sistemas
próprios da companhia ou se isso ocorreu apenas após denúncia.
A Meta
não respondeu diretamente a essas perguntas sobre o caso de estupro coletivo em
São Paulo. Em nota, afirmou que usa tecnologias para detectar casos de abuso
infantil e que remove conteúdos e contas associados a isso assim que
identificados.
"De
outubro a dezembro de 2025, dentre os conteúdos removidos globalmente do
Facebook e do Instagram por violações às regras contra exploração sexual
infantil, cerca de 97% foram identificados e removidos proativamente, antes de
qualquer denúncia", disse a empresa, acrescentando que envia as denúncias
que recebe à Policia Federal e compartilha informações com outras empresas de
tecnologia.
Sobre o
WhatsApp, a Meta ressaltou que tem "equipes especializadas em eliminar
interações abusivas", que encoraja os usuários a denunciarem casos de
abusos às autoridades e que tem constantemente aprimorado suas tecnologias para
detectar abusos.
"Usando
essas técnicas, o WhatsApp faz mais do que qualquer outro serviço de mensagens
com criptografia de ponta a ponta para prevenir e combater esse tipo de abuso
hediondo, e bane mais de 300 mil contas por mês, globalmente, por suspeitas de
compartilhamento de imagens contendo exploração infantil."
<><>
O duplo papel das redes sociais em casos de abuso
A forma
como se desenrolou o caso do estupro coletivo ilustra como as plataformas
digitais podem ter um papel duplo em crimes deste tipo, dizem especialistas.
"Os
mesmos espaços que geram exposição e permitem que conteúdos circulem também
fazem parte da cadeia de atores necessários para que a gente encontre uma
solução", diz Bruna Santos, gerente de políticas públicas e incidência da
Witness, organização global que atua no uso de vídeo e tecnologia audiovisual
para documentar violações de direitos humanos.
As
novas tecnologias têm levado a uma "explosão de casos" e também a
novas formas de violência contra crianças e adolescentes, diz Yasmin Curzi,
professora de Direito da Fundação Getúlio Vargas Direito do Rio de Janeiro e
pesquisadora do Centro de Tecnologia e Sociedade (CTS-FGV).
"Existe
um aumento de escala — qualquer pessoa pode acessar esse tipo de conteúdo — e
também a possibilidade de que essas violências sejam filmadas. Isso gera uma
revitimização permanente, porque essas imagens dificilmente desaparecem",
afirma a pesquisadora.
Para
ela, o problema vai além das redes sociais abertas. "Estamos falando
também de aplicativos de mensagens, onde muitas vezes esses conteúdos circulam
e até são comercializados em grupos dedicados, sem intervenção das
plataformas", diz Curzi.
"Investigações
conseguem mapear a existência desses grupos, mas a circulação tende a migrar
entre plataformas."
Santos
argumenta que as empresas de tecnologia não devem ser cobradas necessariamente
por haver conteúdos deste tipo circulando em suas plataformas — especialmente
em serviços criptografados.
"A
responsabilização passa pelo momento em que essas empresas deixam de
implementar salvaguardas proporcionais para reduzir a circulação desse tipo de
material ou não agem com rapidez diante de denúncias", diz Santos.
"Esses
conteúdos podem se espalhar muito rapidamente antes de qualquer denúncia, e é
muito difícil interromper a circulação depois que começam a ser enviados."
Santos
aponta, no entanto, que as empresas de tecnologia têm falhado reiteradamente em
criar e aplicar mecanismos eficazes de denúncia e resposta em casos como esse.
"Isso
tem impacto direto na reprodução da violência, na exposição das vítimas e na
possibilidade de revitimização", afirma.
Curzi
ressalta que, no caso específico de imagens de abuso sexual infantil, as
tecnologias de detecção já são relativamente avançadas.
"Ferramentas
como o hash matching — que identificam imagens já conhecidas de abuso — são
bastante efetivas e amplamente utilizadas pelas grandes plataformas. Quando
esse tipo de conteúdo circula, isso pode indicar uma falha significativa na
aplicação da moderação", diz.
"Qualquer
pessoa hoje se torna produtora e amplificadora em potencial. Sem cuidados
básicos e sem moderação adequada, conteúdos ilegais ganham escala de forma sem
precedentes."
Curzi
acrescenta que, no Brasil, já há instrumentos legais que exigem uma atuação
mais ativa das empresas.
"As
plataformas precisam se adequar ao Estatuto da Criança e do Adolescente [ECA] e
também a decisões recentes do Supremo Tribunal Federal. Em casos de violência
contra crianças e adolescentes, não é necessária ordem judicial para retirada
de conteúdo — trata-se de um dever proativo", afirma a pesquisadora.
Além
disso, em março, entrou em vigor o Estatuto Digital da Criança e do
Adolescente, o ECA Digital, que estabelece diretrizes para proteger o público
infanto-juvenil nos meios digitais, e é considerado por especialistas como um
marco na proteção das crianças e adolescentes no mundo virtual.
O ECA
Digital foi aprovado depois que o influenciador Felipe Bressanim Pereira, o
Felca, publicou um vídeo, em agosto do ano passado, denunciando perfis em redes
sociais que usavam crianças e adolescentes para promover a sexualização desse
público.
Isso
acelerou o andamento de um projeto de lei de 2022 que estava parado na Câmara
dos Deputados desde 2024.
A nova
lei impõe, dentre as exigências para que plataformas, jogos e aplicativos
possam operar, a obrigatoriedade de as empresas removerem conteúdos de aparente
abuso ou exploração sexual, detectados em seus produtos ou serviços, com
comunicação às autoridades nacionais e internacionais.
Para
isso, não é necessário que haja uma denúncia, como a de Felca, para que a
empresa remova o conteúdo.
Até
então, as plataformas digitais não tinham obrigação legal de reportar
diretamente às autoridades policiais brasileiras crimes cometidos em seus
serviços.
Em
muitos casos, as investigações têm início a partir de cooperação internacional
entre forças policiais.
A
Polícia Federal fica responsável por sistematizar as denúncias recebidas e
encaminhá-las às autoridades policiais competentes para a investigação.
Curzi
ressalta ainda que o debate sobre como combater a divulgação e compartilhamento
desse tipo de conteúdo não deve girar em torno da criptografia.
"É
um mecanismo fundamental para proteger a privacidade, que é um direito humano.
Tratá-la como vilã pode abrir espaço para mais vigilância e violação de
liberdades fundamentais. A resposta não pode ser simplesmente eliminar a
criptografia", afirma.
Entre
as medidas possíveis, Santos cita o fortalecimento de ferramentas nas
plataformas — como alertas de conteúdo sensível, restrições ao compartilhamento
em massa e mecanismos de preservação segura de evidências — além de iniciativas
de educação digital para desencorajar o compartilhamento desse tipo de
material.
"O
problema é que o sistema hoje ainda é mais eficaz para punir depois do que para
prevenir ou conter esse tipo de violência em tempo real", afirma Santos.
Fonte:
BBC News Brasil

Nenhum comentário:
Postar um comentário