Do
Grok ao Roblox, debate expõe “indústria da impunidade digital” e riscos às
crianças
Casos
recentes envolvendo inteligência artificial e plataformas de jogos reacenderam
o debate sobre a responsabilidade das empresas de tecnologia na proteção de
crianças e adolescentes no ambiente digital. Em entrevista ao programa TVGGN
Justiça na última sexta-feira (16), especialistas alertaram para o que
classificam como uma “indústria da impunidade digital”, marcada por falhas na
regulação, dificuldades de fiscalização e riscos crescentes de exploração
infantil online.
O tema
ganhou força após denúncias de que o Grok, inteligência artificial ligada à
rede social X, teria permitido a criação de montagens sensuais envolvendo
imagens de crianças. Paralelamente, o Roblox, um dos jogos mais populares entre
o público infantil, passou a ser alvo de ações e críticas após adotar novas
regras de controle de idade e comunicação entre usuários.
A
advogada criminalista Cláudia Cavalho, especialista em crimes cibernéticos e
segurança digital, destacou que o Brasil aprovou no fim de 2025 a Lei 15.211,
conhecida como Lei Felca, criada para reforçar a proteção de crianças e
adolescentes no ambiente online. Segundo ela, a nova legislação atualiza
lacunas do Estatuto da Criança e do Adolescente (ECA), elaborado em 1990,
quando a internet ainda não fazia parte da vida cotidiana.
“O ECA
digital, que é essa lei nova que estão chamando de Lei Felca, a 15.211 de 2025,
trata de uma série de medidas que as redes sociais, os serviços direcionados
para menores têm que aplicar para também jogos eletrônicos, os games que a
gente fala, no caso Roblox. Então são medidas assim, no geral, para trazer
proteção para criança e adolescente no ambiente digital”, explicou. Entre os
pontos centrais está a verificação de idade, para evitar que adultos se passem
por crianças em ambientes virtuais.
Cláudia
ressaltou, no entanto, que a aplicação da lei enfrenta desafios técnicos e
jurídicos, especialmente em relação à Lei Geral de Proteção de Dados (LGPD),
que limita a coleta de informações sensíveis de menores. Ainda assim, ela
afirma que empresas que operam no Brasil não podem se esquivar da
responsabilização alegando que seus servidores estão no exterior.
A
especialista também apontou dificuldades na investigação de crimes
transnacionais, como redes de pedofilia que operam na chamada “internet
profunda”. Segundo ela, a falta de harmonização das legislações entre países e
a dependência de cooperação internacional tornam as apurações lentas e, muitas
vezes, ineficazes.
Já a
psicanalista e pesquisadora Ana Laura Prats alertou para os efeitos da
sexualização precoce e da solidão das infâncias, fenômenos que, segundo ela,
antecedem a internet, mas foram potencializados pelas plataformas digitais.
“Esse
fenômeno não é um fenômeno tão recente, é um fenômeno que a gente que trabalha
com as infâncias, que vem acompanhando essa questão da criança ser tomada como
objeto em diversas áreas, com muita preocupação, já nota esse aspecto, digamos
assim, do excesso de erotização da criança muito antes dessa proliferação da
internet”, afirmou.
Ana
Laura criticou o enfraquecimento de políticas públicas de educação sexual,
lembrando que o tema foi alvo de ataques nos últimos anos. Para ela, o
silenciamento aumenta a vulnerabilidade das crianças. “A educação sexual, falar
sobre sexualidade, falar sobre isso com as crianças de uma maneira apropriada,
com material pedagógico adequado, com acessibilidade, de uma forma lúdica, de
uma forma adequada a cada fase do desenvolvimento, fosse, ao contrário, incitar
a sexualização das crianças”, disse.
As
especialistas também chamaram atenção para o papel da desigualdade social.
Crianças de famílias economicamente vulneráveis estariam mais expostas aos
riscos digitais, seja pela ausência de supervisão, seja pela falta de políticas
públicas de apoio às famílias.
O
debate incluiu ainda críticas à resistência das big techs em ampliar a
moderação de conteúdo, alegando prejuízos financeiros. Para as entrevistadas, a
entrada em vigor da Lei Felca, prevista para março, deve provocar disputas
judiciais, mas representa um passo importante para reduzir a impunidade
digital.
“Evidentemente,
o que está em jogo aí são interesses econômicos, não é uma questão
tecnológica”, resumiu Cláudia Cavalho. Já Ana Laura destacou que o desafio
central é recolocar a criança como sujeito de direitos.
• Usuários do Grok que criam imagens
sexualizadas falsas podem ser responsabilizados criminalmente
O uso
da ferramenta de inteligência artificial Grok, disponibilizada pelo X (antigo
Twitter), para a criação de imagens sexualizadas falsas de mulheres e crianças
pode resultar em responsabilização criminal dos usuários e em responsabilidade
civil da plataforma. A avaliação é de especialistas ouvidos pela revista
eletrônica Consultor Jurídico.
Segundo
os entrevistados, a IA generativa do X vem sendo amplamente utilizada para a
produção de deepfakes com conotação sexual. Usuários inserem comandos para que
o sistema gere imagens de pessoas reais com pouca roupa ou completamente nuas,
que depois passam a circular de forma massiva na rede social.
O X
afirma ter alterado as diretrizes do Grok para coibir a geração de imagens
sexualizadas falsas e restringiu o recurso a usuários assinantes. Testes
recentes realizados por veículos especializados, como o The Verge, porém,
indicam que o sistema ainda permite a criação de imagens de nudez sem
consentimento com relativa facilidade.
Do
ponto de vista penal, a conduta do usuário que solicita esse tipo de conteúdo
pode configurar crime contra a dignidade sexual. A prática pode ser enquadrada
no artigo 218-C do Código Penal, que tipifica a divulgação de cenas de sexo,
nudez ou pornografia sem consentimento, com pena de reclusão de um a cinco
anos, além de multa.
De
acordo com o criminalista Welington Arruda, mesmo quando a conduta se limita ao
pedido para a IA gerar a imagem, também é possível aplicar o artigo 216-B do
Código Penal, que pune a produção de conteúdo de nudez íntima e privada sem
autorização, por qualquer meio, com pena de detenção de seis meses a um ano e
multa.
Para
Marcos Poliszezuk, sócio fundador do escritório Poliszezuk Advogados, a
manipulação de imagens por inteligência artificial para fins vexatórios ou
difamatórios, especialmente com conotação sexual, pode caracterizar o crime de
divulgação não consensual de conteúdo íntimo, conhecido como pornografia de
vingança.
<><>
Violência psicológica
Nos
casos em que a vítima é mulher, o autor do comando também pode responder com
base na Lei nº 15.123/2025, que agravou a pena do crime de violência
psicológica quando praticado com uso de inteligência artificial ou outras
tecnologias capazes de alterar imagem ou som. A norma tem como objetivo
justamente coibir o uso de deepfakes.
As
vítimas podem buscar responsabilização judicial tanto na esfera penal quanto na
cível. No âmbito criminal, é possível apresentar notícia-crime ao Ministério
Público, que pode requisitar a quebra de sigilo do usuário e instaurar ação
penal. O artigo 22 do Marco Civil da Internet autoriza expressamente a obtenção
de registros de conexão e de acesso a aplicações para fins probatórios em
processos judiciais.
<><>
Responsabilidade do X
Na
esfera cível, os especialistas são unânimes ao afirmar que o X pode ser
responsabilizado pelos danos causados. No julgamento do RE 1.037.396 (Tema
987), o Supremo Tribunal Federal decidiu que plataformas digitais podem
responder por conteúdos criminosos gerados por terceiros, inclusive aqueles
produzidos por suas ferramentas de inteligência artificial.
A Corte
estabeleceu que há presunção de responsabilidade dos provedores quando se trata
de redes artificiais de distribuição, como chatbots e robôs, sendo dispensada a
necessidade de notificação prévia.
O
advogado Omar Kaminski, especialista em Direito Digital, explica que a
plataforma pode responder tanto de forma objetiva quanto subjetiva. Segundo
ele, a vítima pode ingressar com ação diretamente contra a empresa,
independentemente da identificação do usuário responsável pela geração da
imagem.
Spencer
Toth Sydow, doutor em Direito pela USP e autor do livro Exposição Pornográfica
Não Consentida na Virtualidade, afirma que, nesses casos, o dano moral é
presumido.
O fato
de a imagem não ser real não afasta a responsabilidade da plataforma, ressalta
o advogado Fabrício Bertini Pasquot Polido, sócio do escritório L.O. Baptista.
Segundo ele, o X pode ser acionado tanto para identificar os usuários
envolvidos quanto para responder civilmente pelo conteúdo.
<><>
Escala sem precedentes
Levantamento
publicado pela Bloomberg aponta que o Grok gerou cerca de 6,7 mil imagens de
cunho sexual por hora em um período de 24 horas, totalizando mais de 160 mil
imagens em um único dia. Os dados foram coletados nos dias 6 e 7 de janeiro
deste ano.
O
volume é considerado sem precedentes. No mesmo período, outros cinco sites que
utilizam IA para geração de imagens produziram, em média, 79 imagens
sexualizadas por hora, um número significativamente inferior ao registrado pela
ferramenta do X.
• Grok, IA de Elon Musk, pode ser suspensa
no Brasil por violar direitos de mulheres e crianças
O
Instituto de Defesa do Consumidor (Idec) solicitou ao governo federal, a suspensão do funcionamento do Grok,
ferramenta de inteligência artificial desenvolvida por Elon Musk e integrada à
rede social X. Segundo a entidade, a tecnologia tem sido usada para gerar
imagens íntimas falsas de mulheres e crianças sem consentimento, o que
configuraria graves violações de direitos fundamentais.
Em
nota, o Idec afirmou que o pedido se baseia em “evidências robustas de
violações reiteradas”, com impactos diretos sobre crianças, adolescentes e
mulheres. Na semana passada, o g1 revelou o caso de uma brasileira que teve uma
foto de biquíni manipulada por meio da ferramenta. Ao tomar conhecimento da
imagem, a vítima relatou à reportagem um “sentimento horrível”.
A
prática, conhecida como deepfake, quando imagens reais são alteradas com o uso
de inteligência artificial, já existe há alguns anos, mas ganhou grande
disseminação no X no mês passado, tornando-se uma tendência no Brasil e em
outros países.
O
pedido de suspensão foi formalizado em um ofício encaminhado ao Comitê
Intersetorial para a Proteção dos Direitos da Criança e do Adolescente no
Ambiente Digital, que reúne representantes do Ministério da Justiça e da
Segurança Pública, do Ministério dos Direitos Humanos e da Cidadania, da
Secretaria de Comunicação Social da Presidência da República e do Conselho
Nacional dos Direitos da Criança e do Adolescente (Conanda).
De
acordo com o Idec, o Grok vem sendo utilizado para a difusão de “imagens
sexualizadas não consentidas, inclusive de menores de idade”, sem que haja
salvaguardas mínimas de segurança, mecanismos de consentimento ou medidas
eficazes de prevenção de abusos. Para a entidade, isso caracteriza um defeito
grave na prestação do serviço, nos termos do Código de Defesa do Consumidor
(CDC), por não oferecer o nível de segurança esperado.
O
instituto também aponta possíveis violações à Lei Geral de Proteção de Dados
(LGPD), ao Marco Civil da Internet, ao Estatuto da Criança e do Adolescente
(ECA) e ao recém-aprovado ECA Digital. No documento, o Idec lembra ainda que o
caso já provocou reações em outros países, com investigações e ordens de
remoção de conteúdo por autoridades da União Europeia, do Reino Unido, da
França e da Índia.
Para o
Idec, o episódio evidencia os riscos de uma inovação tecnológica sem
responsabilidade. “Quando uma tecnologia não consegue garantir salvaguardas
mínimas, sua interrupção temporária é uma exigência jurídica e ética”, afirma a
entidade.
Fonte:
Jornal GGN/Conjur

Nenhum comentário:
Postar um comentário