sábado, 24 de janeiro de 2026

Do Grok ao Roblox, debate expõe “indústria da impunidade digital” e riscos às crianças

Casos recentes envolvendo inteligência artificial e plataformas de jogos reacenderam o debate sobre a responsabilidade das empresas de tecnologia na proteção de crianças e adolescentes no ambiente digital. Em entrevista ao programa TVGGN Justiça na última sexta-feira (16), especialistas alertaram para o que classificam como uma “indústria da impunidade digital”, marcada por falhas na regulação, dificuldades de fiscalização e riscos crescentes de exploração infantil online.

O tema ganhou força após denúncias de que o Grok, inteligência artificial ligada à rede social X, teria permitido a criação de montagens sensuais envolvendo imagens de crianças. Paralelamente, o Roblox, um dos jogos mais populares entre o público infantil, passou a ser alvo de ações e críticas após adotar novas regras de controle de idade e comunicação entre usuários.

A advogada criminalista Cláudia Cavalho, especialista em crimes cibernéticos e segurança digital, destacou que o Brasil aprovou no fim de 2025 a Lei 15.211, conhecida como Lei Felca, criada para reforçar a proteção de crianças e adolescentes no ambiente online. Segundo ela, a nova legislação atualiza lacunas do Estatuto da Criança e do Adolescente (ECA), elaborado em 1990, quando a internet ainda não fazia parte da vida cotidiana.

“O ECA digital, que é essa lei nova que estão chamando de Lei Felca, a 15.211 de 2025, trata de uma série de medidas que as redes sociais, os serviços direcionados para menores têm que aplicar para também jogos eletrônicos, os games que a gente fala, no caso Roblox. Então são medidas assim, no geral, para trazer proteção para criança e adolescente no ambiente digital”, explicou. Entre os pontos centrais está a verificação de idade, para evitar que adultos se passem por crianças em ambientes virtuais.

Cláudia ressaltou, no entanto, que a aplicação da lei enfrenta desafios técnicos e jurídicos, especialmente em relação à Lei Geral de Proteção de Dados (LGPD), que limita a coleta de informações sensíveis de menores. Ainda assim, ela afirma que empresas que operam no Brasil não podem se esquivar da responsabilização alegando que seus servidores estão no exterior.

A especialista também apontou dificuldades na investigação de crimes transnacionais, como redes de pedofilia que operam na chamada “internet profunda”. Segundo ela, a falta de harmonização das legislações entre países e a dependência de cooperação internacional tornam as apurações lentas e, muitas vezes, ineficazes.

Já a psicanalista e pesquisadora Ana Laura Prats alertou para os efeitos da sexualização precoce e da solidão das infâncias, fenômenos que, segundo ela, antecedem a internet, mas foram potencializados pelas plataformas digitais.

“Esse fenômeno não é um fenômeno tão recente, é um fenômeno que a gente que trabalha com as infâncias, que vem acompanhando essa questão da criança ser tomada como objeto em diversas áreas, com muita preocupação, já nota esse aspecto, digamos assim, do excesso de erotização da criança muito antes dessa proliferação da internet”, afirmou.

Ana Laura criticou o enfraquecimento de políticas públicas de educação sexual, lembrando que o tema foi alvo de ataques nos últimos anos. Para ela, o silenciamento aumenta a vulnerabilidade das crianças. “A educação sexual, falar sobre sexualidade, falar sobre isso com as crianças de uma maneira apropriada, com material pedagógico adequado, com acessibilidade, de uma forma lúdica, de uma forma adequada a cada fase do desenvolvimento, fosse, ao contrário, incitar a sexualização das crianças”, disse.

As especialistas também chamaram atenção para o papel da desigualdade social. Crianças de famílias economicamente vulneráveis estariam mais expostas aos riscos digitais, seja pela ausência de supervisão, seja pela falta de políticas públicas de apoio às famílias.

O debate incluiu ainda críticas à resistência das big techs em ampliar a moderação de conteúdo, alegando prejuízos financeiros. Para as entrevistadas, a entrada em vigor da Lei Felca, prevista para março, deve provocar disputas judiciais, mas representa um passo importante para reduzir a impunidade digital.

“Evidentemente, o que está em jogo aí são interesses econômicos, não é uma questão tecnológica”, resumiu Cláudia Cavalho. Já Ana Laura destacou que o desafio central é recolocar a criança como sujeito de direitos.

•        Usuários do Grok que criam imagens sexualizadas falsas podem ser responsabilizados criminalmente

O uso da ferramenta de inteligência artificial Grok, disponibilizada pelo X (antigo Twitter), para a criação de imagens sexualizadas falsas de mulheres e crianças pode resultar em responsabilização criminal dos usuários e em responsabilidade civil da plataforma. A avaliação é de especialistas ouvidos pela revista eletrônica Consultor Jurídico.

Segundo os entrevistados, a IA generativa do X vem sendo amplamente utilizada para a produção de deepfakes com conotação sexual. Usuários inserem comandos para que o sistema gere imagens de pessoas reais com pouca roupa ou completamente nuas, que depois passam a circular de forma massiva na rede social.

O X afirma ter alterado as diretrizes do Grok para coibir a geração de imagens sexualizadas falsas e restringiu o recurso a usuários assinantes. Testes recentes realizados por veículos especializados, como o The Verge, porém, indicam que o sistema ainda permite a criação de imagens de nudez sem consentimento com relativa facilidade.

Do ponto de vista penal, a conduta do usuário que solicita esse tipo de conteúdo pode configurar crime contra a dignidade sexual. A prática pode ser enquadrada no artigo 218-C do Código Penal, que tipifica a divulgação de cenas de sexo, nudez ou pornografia sem consentimento, com pena de reclusão de um a cinco anos, além de multa.

De acordo com o criminalista Welington Arruda, mesmo quando a conduta se limita ao pedido para a IA gerar a imagem, também é possível aplicar o artigo 216-B do Código Penal, que pune a produção de conteúdo de nudez íntima e privada sem autorização, por qualquer meio, com pena de detenção de seis meses a um ano e multa.

Para Marcos Poliszezuk, sócio fundador do escritório Poliszezuk Advogados, a manipulação de imagens por inteligência artificial para fins vexatórios ou difamatórios, especialmente com conotação sexual, pode caracterizar o crime de divulgação não consensual de conteúdo íntimo, conhecido como pornografia de vingança.

<><> Violência psicológica

Nos casos em que a vítima é mulher, o autor do comando também pode responder com base na Lei nº 15.123/2025, que agravou a pena do crime de violência psicológica quando praticado com uso de inteligência artificial ou outras tecnologias capazes de alterar imagem ou som. A norma tem como objetivo justamente coibir o uso de deepfakes.

As vítimas podem buscar responsabilização judicial tanto na esfera penal quanto na cível. No âmbito criminal, é possível apresentar notícia-crime ao Ministério Público, que pode requisitar a quebra de sigilo do usuário e instaurar ação penal. O artigo 22 do Marco Civil da Internet autoriza expressamente a obtenção de registros de conexão e de acesso a aplicações para fins probatórios em processos judiciais.

<><> Responsabilidade do X

Na esfera cível, os especialistas são unânimes ao afirmar que o X pode ser responsabilizado pelos danos causados. No julgamento do RE 1.037.396 (Tema 987), o Supremo Tribunal Federal decidiu que plataformas digitais podem responder por conteúdos criminosos gerados por terceiros, inclusive aqueles produzidos por suas ferramentas de inteligência artificial.

A Corte estabeleceu que há presunção de responsabilidade dos provedores quando se trata de redes artificiais de distribuição, como chatbots e robôs, sendo dispensada a necessidade de notificação prévia.

O advogado Omar Kaminski, especialista em Direito Digital, explica que a plataforma pode responder tanto de forma objetiva quanto subjetiva. Segundo ele, a vítima pode ingressar com ação diretamente contra a empresa, independentemente da identificação do usuário responsável pela geração da imagem.

Spencer Toth Sydow, doutor em Direito pela USP e autor do livro Exposição Pornográfica Não Consentida na Virtualidade, afirma que, nesses casos, o dano moral é presumido.

O fato de a imagem não ser real não afasta a responsabilidade da plataforma, ressalta o advogado Fabrício Bertini Pasquot Polido, sócio do escritório L.O. Baptista. Segundo ele, o X pode ser acionado tanto para identificar os usuários envolvidos quanto para responder civilmente pelo conteúdo.

<><> Escala sem precedentes

Levantamento publicado pela Bloomberg aponta que o Grok gerou cerca de 6,7 mil imagens de cunho sexual por hora em um período de 24 horas, totalizando mais de 160 mil imagens em um único dia. Os dados foram coletados nos dias 6 e 7 de janeiro deste ano.

O volume é considerado sem precedentes. No mesmo período, outros cinco sites que utilizam IA para geração de imagens produziram, em média, 79 imagens sexualizadas por hora, um número significativamente inferior ao registrado pela ferramenta do X.

•        Grok, IA de Elon Musk, pode ser suspensa no Brasil por violar direitos de mulheres e crianças

O Instituto de Defesa do Consumidor (Idec) solicitou ao governo federal,  a suspensão do funcionamento do Grok, ferramenta de inteligência artificial desenvolvida por Elon Musk e integrada à rede social X. Segundo a entidade, a tecnologia tem sido usada para gerar imagens íntimas falsas de mulheres e crianças sem consentimento, o que configuraria graves violações de direitos fundamentais.

Em nota, o Idec afirmou que o pedido se baseia em “evidências robustas de violações reiteradas”, com impactos diretos sobre crianças, adolescentes e mulheres. Na semana passada, o g1 revelou o caso de uma brasileira que teve uma foto de biquíni manipulada por meio da ferramenta. Ao tomar conhecimento da imagem, a vítima relatou à reportagem um “sentimento horrível”.

A prática, conhecida como deepfake, quando imagens reais são alteradas com o uso de inteligência artificial, já existe há alguns anos, mas ganhou grande disseminação no X no mês passado, tornando-se uma tendência no Brasil e em outros países.

O pedido de suspensão foi formalizado em um ofício encaminhado ao Comitê Intersetorial para a Proteção dos Direitos da Criança e do Adolescente no Ambiente Digital, que reúne representantes do Ministério da Justiça e da Segurança Pública, do Ministério dos Direitos Humanos e da Cidadania, da Secretaria de Comunicação Social da Presidência da República e do Conselho Nacional dos Direitos da Criança e do Adolescente (Conanda).

De acordo com o Idec, o Grok vem sendo utilizado para a difusão de “imagens sexualizadas não consentidas, inclusive de menores de idade”, sem que haja salvaguardas mínimas de segurança, mecanismos de consentimento ou medidas eficazes de prevenção de abusos. Para a entidade, isso caracteriza um defeito grave na prestação do serviço, nos termos do Código de Defesa do Consumidor (CDC), por não oferecer o nível de segurança esperado.

O instituto também aponta possíveis violações à Lei Geral de Proteção de Dados (LGPD), ao Marco Civil da Internet, ao Estatuto da Criança e do Adolescente (ECA) e ao recém-aprovado ECA Digital. No documento, o Idec lembra ainda que o caso já provocou reações em outros países, com investigações e ordens de remoção de conteúdo por autoridades da União Europeia, do Reino Unido, da França e da Índia.

Para o Idec, o episódio evidencia os riscos de uma inovação tecnológica sem responsabilidade. “Quando uma tecnologia não consegue garantir salvaguardas mínimas, sua interrupção temporária é uma exigência jurídica e ética”, afirma a entidade.

 

Fonte: Jornal GGN/Conjur

 

Nenhum comentário: