Casos de nudes falsos se multiplicam e preocupam autoridades
Em uma manhã do início de novembro, a estudante
Lara*, de 13 anos, correu desesperada em direção ao banheiro da escola e
começou a chorar copiosamente.
Pouco antes, ela havia recebido uma mensagem com
uma fotografia que a deixou abalada. Na imagem, ela aparecia nua.
Lara se lembrava daquela foto, feita por sua mãe em
um momento em família. A estudante havia compartilhado o registro em seu perfil
no Instagram. Mas tinha certeza de que estava de biquíni.
A adolescente foi vítima de uma manipulação de
imagens para fazer nudes criados com inteligência
artificial (IA), o que fez com que ela aparecesse nua na foto.
“Quando a minha filha me ligou chorando, achei até
que fosse uma pegadinha, porque ela não é de se exaltar, gritar ou chorar”, diz
Vanessa*, mãe de Lara, à BBC News Brasil.
Assim como Lara, ao menos outras 28 estudantes com
idades entre 13 e 16 anos de escolas de elite da Barra da Tijuca, bairro na
Zona Oeste do Rio de Janeiro, sofreram com a mesma situação.
Grande parte das vítimas estudam no tradicional
Colégio Santo Agostinho.
“É tão impensável e surreal que essas pessoas
tenham essa crueldade com essas meninas tão novas”, diz Vanessa.
De acordo com os relatos dos pais e das próprias
vítimas, os responsáveis por manipular as imagens foram meninos adolescentes
que estudam no Santo Agostinho.
A escola disse em nota à BBC News Brasil que
acompanha o episódio.
O caso é investigado pela Delegacia de Proteção à
Criança e ao Adolescente (DPCA) do Rio de Janeiro, que tem ouvido os
envolvidos.
“Diligências seguem para identificar a autoria do
crime e esclarecer o caso”, informou um comunicado da Polícia Civil do Rio de
Janeiro.
A situação tem se repetido com certa frequência em
escolas brasileiras e também em outros países.
Em questão de dias, casos semelhantes foram
denunciados em colégios de Recife, em Pernambuco, e de Belo Horizonte, em Minas
Gerais.
No exterior, um dos casos que mais repercutiram
ocorreu no vilarejo de Almendralejo, na Província de Badajoz, na Espanha.
O caso se tornou alvo de investigação policial.
Mais de 20 meninas, com idades entre 11 e 17 anos, se apresentaram como vítimas
de nudes feitos com IA.
Outro caso com grande repercussão foi registrado em
uma escola de Nova Jersey, nos Estados Unidos. Alunas do Ensino Médio
descobriram que garotos que estudam na mesma escola haviam manipulado imagens
delas com roupas para que elas aparecessem nuas. Os pais das jovens denunciaram
o caso.
·
‘Toda mulher é vítima em potencial’
Um dos fatores que preocupa sobre esse tipo de caso
é que as ferramentas disponíveis para manipular esse tipo de imagem são de
fácil acesso. Basta fazer uma busca na internet que surge uma lista com
diversas opções.
Por isso, alertam especialistas, casos assim podem
se tornar cada vez mais comuns.
“Isso pode se tornar epidêmico porque é muito fácil
(acessar ferramentas de inteligência artificial para manipular imagens)”, diz a
advogada Estela Aranha, assessora especial de Direitos Digitais do Ministério
da Justiça e Segurança Pública (MJSP).
“Hoje, com esse tipo de instrumento, todas as
mulheres e meninas podem ser potenciais vítimas desse tipo de crime. E, no
ambiente escolar, em que há bullying, as pessoas podem achar que isso é
divertido”, acrescenta.
Carlos Affonso Souza, diretor do Instituto de
Tecnologia e Sociedade do Rio de Janeiro (ITS-Rio), diz que essas ferramentas
de inteligência artificial devem ficar cada vez mais sofisticadas e com efeitos
ainda mais reais. Enquanto isso, ele pontua, crianças e adolescentes
continuarão postando fotos nas redes que podem ser usadas facilmente nesses
aplicativos.
“Os aplicativos de IA não vão simplesmente
desaparecer. Por mais que a gente pense em fazer com que eles sumam das lojas
de aplicativos, sempre vai haver sites de fácil acesso que ofereçam essas
funções.”
Souza avalia que esses aplicativos de inteligência
artificial não devem ser considerados os vilões desses casos de fotografias
falsas. Ele frisa que o problema é a forma indevida como essas ferramentas
podem ser usadas, por isso diz que é fundamental que haja cada vez mais
esclarecimentos sobre os riscos e as consequências que esse tipo de manipulação
de imagens pode ter.
“É preciso enfrentar essa situação. É preciso que a
legislação seja aplicada para punir por simulação de menores em atos
pornográficos. É preciso haver uma educação digital sobre o uso seguro e
responsável da Inteligência Artificial”, declara Souza.
·
‘Não é montagem de fundo de quintal’
Vanessa conta que, enquanto as meninas vítimas dos
nudes feitos com IA estavam abaladas com as imagens, os garotos que criaram as
imagens afirmavam que tudo não passava de uma brincadeira.
“Em grupos desses meninos no Telegram, eles pediam
fotos das meninas. Escolhiam a dedo as mais populares e bonitas. Iam no seu
perfil no Instagram, pegavam uma foto e faziam a montagem”, diz Vanessa à BBC
News Brasil.
Isso só veio à tona porque um aluno que participava
do grupo decidiu revelar a situação às vítimas.
“Esse menino contou que essas fotos foram feitas no
laboratório de informática do Santo Agostinho e que isso acontecia desde o
início de outubro”, diz Vanessa.
Uma das preocupações dos pais das estudantes que
fizeram denúncias à polícia é a forma como as imagens manipuladas são muito
realistas.
“Nos grupos, ninguém tratava como uma montagem, era
como se fosse um nude real das meninas”, afirma Vanessa.
“É fácil falar: ‘ah, mas essa foto é falsa, por que
está tão preocupada?’ Mas não é uma montagem de quintal, é uma boa imagem. Quem
olhar nem sempre vai saber se é real ou não.”
Também preocupa onde esses falsos nudes podem ir
parar.
“Em sites adultos, quem vai dizer se é verdade ou
mentira? É a minha filha que está ali”, acrescenta Vanessa.
Estela Aranha reforça que as fotos manipuladas com
IA são especialmente realistas.
“É muito mais crível do que pegar um rosto e
colocar em um corpo qualquer. É exatamente como a pessoa é, mas nua”, diz
Aranha.
Os pais das vítimas temem o impacto destas imagens
no futuro delas e como isso pode afetá-las.
“Minha filha vai conviver com isso para sempre. A
gente não sabe, daqui a cinco anos, se essa foto vai aparecer de novo, já que é
tão real e nem parece montagem”, diz Vanessa.
“Ela pode estar em uma entrevista de emprego e
encontrarem essa imagem e, como não vão saber que é montagem, ela pode ser
julgada por isso”, acrescenta.
O Colégio Santo Agostinho disse, em nota, que
permanece atento em relação ao caso e que mensagens que “prejudicam a
integridade emocional das crianças e dos adolescentes envolvidos não serão
admitidas em qualquer espaço” do colégio.
A unidade de ensino afirma que tem trabalhado de
“forma firme e incansável em diversas ações que a situação exige” e que prestou
esclarecimentos à polícia sobre o caso.
·
‘Não podemos tratar como brincadeira’
A multiplicação de episódios semelhantes tem
preocupado especialistas.
Não há levantamento oficial sobre quantos casos já
foram registrados, segundo o Ministério da Justiça. Somente desde o fim de
outubro foram, ao menos, quatro episódios desse tipo.
Um dos casos ocorreu no colégio Marista São Luís,
em Recife. Na unidade de ensino, alunas com idades por volta de 14 anos foram
vítimas de nudes feitos com IA.
Pais das alunas contaram ao portal G1 que um
estudante disse ter feito as montagens junto com outros colegas.
Em nota à BBC News Brasil, o colégio Marista São
Luís informou que logo que soube do caso, em 6 de novembro, suspendeu os quatro
garotos envolvidos no episódio.
Além disso, a escola disse que um dos estudantes
foi transferido da unidade de ensino após o caso, enquanto os outros três vão
concluir o ano letivo de 2023 “sem frequentar presencialmente as aulas”.
“Para 2024, todos estudantes envolvidos já estão
com a documentação da transferência escolar autorizada, a partir do dia 16 de
dezembro, considerando o calendário, para finalização do ano letivo”, disse a
escola em comunicado.
“O Marista reitera que acolheu imediatamente as
vítimas e auxiliou os responsáveis no registro formal da queixa na delegacia
especializada, tendo ainda registrado o caso no Conselho Tutelar. A Instituição
segue colaborando com as investigações policiais e prestando apoio e
esclarecimentos à comunidade escolar”, finalizou a nota da escola.
Outras duas adolescentes, de 14 e 15 anos, que
estudam em um colégio particular de Belo Horizonte – que não teve o nome
divulgado – também foram vítimas. Segundo a Polícia Civil de Minas Gerais, a
investigação apontou que o responsável pelas imagens falsas foi um adolescente
de 15 anos, que estuda na mesma escola.
Segundo a polícia mineira, em nota à BBC News
Brasil, as imagens foram descobertas ao serem compartilhadas pelo adolescente
em redes sociais por meio de um perfil falso. Após denúncias dos pais das
jovens, uma investigação apontou quem era o dono do perfil.
A polícia já concluiu a investigação e disse, em
nota, que “representou pela aplicação de medida socioeducativa” contra o
adolescente. O caso agora está com a Justiça.
Outro caso, no fim de outubro, envolveu a atriz
Isis Valverde. Fotografias dela de biquíni ou roupas foram modificadas para que
ela aparecesse nua. As imagens repercutiram na internet e a atriz denunciou o
caso. O episódio é investigado pela Polícia Civil do Rio de Janeiro.
Os episódios recentes demonstram, segundo
especialistas, a importância de que esse tipo de uso indevido da IA seja levado
a sério, por meio da investigação dos casos e a punição dos responsáveis.
“É fundamental mandar um sinal de reprovação
absoluta dessas condutas, temos que tratar como um crime grave e não como
brincadeira”, diz Estela Aranha.
A advogada Camila Bouza, responsável pela defesa de
Lara, reforça que não se trata de algo banal.
“Não é um jogo sexual porque a pessoa do outro lado
não estava brincando”, diz Bouza.
Carlos Affonso Souza defende que uma das formas de
tentar impedir o aumento desses casos é a atenção dos adultos aos conteúdos
acessados e aos aplicativos usados pelos filhos.
“Os pais ou responsáveis podem e devem responder
pelos atos desempenhados por seus filhos na internet, em especial quando violam
a intimidade de colegas de classe”, declara Souza, que é professor de Direito
Digital da Universidade Estadual do Rio de Janeiro (Uerj).
“Infelizmente, muitas vezes é preciso doer no bolso
(por meio de indenizações por danos morais)”, acrescenta o especialista.
Ele afirma que as escolas também precisam falar com
os estudantes sobre o tema e adotar as medidas necessárias para que esses casos
não sejam tratados como brincadeira.
Após a repercussão dos casos recentes, o deputado
federal Marcelo Álvaro Antônio (PL-MG) apresentou um projeto de lei que inclui
no Código Penal o crime de criação e reprodução de nudez feita por meio de
inteligência artificial.
O projeto prevê pena de prisão de 6 meses a um ano,
e a pena pode ser aumentada se a vítima for menor de idade e se as imagens
forem usadas para chantagens.
No Reino Unido, recentemente foi aprovada uma Lei
de Segurança Online que promete transformar o país no "lugar mais seguro
do mundo para estar online."
Essa lei trata de problemas relacionados ao acesso
de crianças e adolescentes à pornografia online. Um dos pontos diz sobre o
compartilhamento não consensual de imagens íntimas e aponta que a divulgação de
imagens íntimas ou falsas, artificialmente criadas de pessoas nuas, podem levar
a pena de até seis meses de prisão.
·
Violência de gênero
Esses casos são também uma forma de violência de
gênero, frisam especialistas, porque todas as vítimas são mulheres.
A Ordem dos Advogados do Brasil no Rio de Janeiro
(OAB-RJ) afirmou em nota que o caso das escolas da Barra da Tijuca é “um ato
criminoso”.
“Viola a privacidade, a dignidade, a honra e a
intimidade das vítimas, além de configurar pornografia de vingança,
cyberbullying e violência de gênero”, disse a OAB-RJ.
A advogada Camila Bouza afirma que o fato de as
vítimas serem apenas mulheres deixa claro que se trata de uma nova forma de
violência de gênero.
“São meninos de 14 anos que perpetuam um machismo
estrutural, relações nas quais não respeitam os corpos das meninas”, afirma
Bouza.
“Elas podem, sim, postar fotos de biquínis. Vivemos
em uma cidade com a cultura de praia, e eles não são donos dos corpos dessas
meninas. Os corpos são delas.”
Estela Aranha diz que a popularização das
ferramentas de tecnologia artificial pode agravar a violência cotidiana contra
mulheres.
“A violência sexual contra a mulher no Brasil é um
problema epidêmico e pode piorar com essas novidades tecnológicas.”
·
O impacto psicológico
Adolescentes que veem seus corpos nus expostos nas
redes sociais, mesmo que sejam em imagens falsas, podem sofrer um impacto
emocional equivalente ao que teriam se fosse uma fotografia verdadeira, diz a
psicóloga Anna Lucia Spear King, professora do Instituto de Psiquiatria da
Universidade Federal do Rio de Janeiro (UFRJ).
A psicóloga afirma ser fundamental que estas
meninas sejam acompanhadas por um psicólogo e um psiquiatra para receber
orientação e suporte emocional.
“Elas não têm maturidade para lidar com o estresse,
vergonha, julgamento e as críticas alheias que surgem a partir da exposição
sofrida e advindos dos comentários nas redes sociais”, diz King, fundadora do
Instituto Delete, que pesquisa o impacto das tecnologias na saúde mental.
Segundo a psicóloga, a exposição das fotos
manipuladas pode causar transtornos mentais como pânico, ansiedade generalizada
e depressão.
“Em até seis meses podem aparecer sintomas
relativos ao transtorno de estresse pós-traumático”, diz King.
Lara sofre com os efeitos da publicação do nude
feito com IA, conta sua mãe.
"Ela está com uma insegurança enorme e não
sabe mais em quem confiar", diz Vanessa.
"Ela anda na escola pensando: esse menino me
viu pelada? Quando alguém fala alguma coisa ou ri perto dela, ela acha que é
por causa daquela foto. Ela acha que virou motivo de chacota."
A adolescente passou a se culpar e quis apagar
todas as suas fotos nas redes sociais, afirma Vanessa.
“Ela não sabe mais se deve voltar no tempo em que
as mulheres andavam cobertas, mesmo estando em um país onde a gente quer o
oposto: ser livre.”
*Nomes alterados para preservar as
identidades de mãe e filha.
Fonte: BBC News Brasil
Nenhum comentário:
Postar um comentário