sábado, 28 de junho de 2025

STF: redes são responsáveis por conteúdos de terceiros

O Supremo Tribunal Federal (STF) decidiu nesta quinta-feira (06/26) que as redes sociais poderão ser responsabilizadas por postagens irregulares de terceiros, ou seja, dos usuários das plataformas.

Por 8 votos a 3, os juízes decidiram que o artigo 19 do Marco Civil da Internet, que diz respeito à responsabilidade das redes sociais, é parcialmente inconstitucional.

O artigo em questão exige uma ordem judicial específica para responsabilização civil das redes por postagens ofensivas. Os magistrados, porém, entenderam que esse procedimento oferecia proteção insuficiente aos direitos fundamentais das vítimas, como a honra e a dignidade. A partir de agora, o Marco Civil da Internet deverá passar por ajustes até que o Congresso aprove uma nova legislação sobre o tema.

Até que isso aconteça, as plataformas podem ser responsabilizadas civilmente nos termos do artigo 21 do Marco Civil por danos gerados por conteúdo de terceiros, inclusive quando se tratar de contas inautênticas.

Apesar de o STF já ter garantido anteriormente a maioria para ampliar a responsabilização das plataformas, ainda era necessário um acordo em torno do texto final do julgamento em razão de divergências entre alguns dos juízes sobre a amplitude, o momento e os casos em que as empresas devem ser responsabilizadas.

<><> Plataformas devem agir proativamente

Após a decisão desta quinta-feira, as redes deverão acatar notificações extrajudiciais feitas pelas vítimas ou seus advogados para remover um conteúdo irregular. Se após ser notificada a plataforma não agir e, mais tarde, a Justiça considerar que o conteúdo era irregular, a rede estará sujeita a responsabilização civil.

A decisão estabelece que as redes devem agir de forma proativa e imediata para remover conteúdos, mesmo sem notificação prévia, em casos de discurso de ódio, racismo, pedofilia, incitação à violência ou a um golpe de Estado. Em casos de omissão, as plataformas poderão estar sujeitas à responsabilização civil direta. Essa punição, no entanto, não se aplica à legislação eleitoral, regida por regras próprias e normas do Tribunal Superior Eleitoral (TSE).

A decisão do STF, além de transformar a lógica de funcionamento das redes sociais no Brasil, deve levar as empresas de tecnologia a adotar protocolos mais rigorosos de moderação de conteúdo e criar meios eficazes de recebimento de denúncias e notificações extrajudiciais.

•        Redes sociais não serão responsabilizadas por todos os posts criminosos, mesmo após decisão do STF, dizem especialistas

Redes sociais não serão responsabilizadas por todos os posts criminosos, mesmo depois de o Supremo Tribunal Federal (STF) determinar situações em que esses conteúdos devem ser derrubados sem ordem judicial, dizem especialistas ouvidos pelo g1.

Até então, o Marco Civil, que rege a internet no Brasil, só previa isso em casos de posts com cenas de nudez ou de atos sexuais de caráter privado, sem a autorização dos participantes.

Mas a mudança determinada pelo STF só valerá quando a Justiça entender que existiu falha sistêmica das plataformas, segundo advogados.

"O caso individual, a princípio, serve para lançar luz sobre o tema, mas a responsabilização só ocorre se for identificado um problema maior, recorrente", disse Álvaro Palma, advogado constitucionalista e professor da FGV Direito Rio.

<><> O que o STF mudou em relação às redes

O julgamento no STF sobre as redes foi encerrado nesta quinta (26), mas os ministros já tinham formado maioria no último dia 11.

Além da conclusão dos votos, faltava que acertassem os detalhes sobre em quais casos se daria essa responsabilização das redes, o que também foi feito nesta quinta.

O Supremo definiu três formas de atuação das redes sociais contra posts ilegais, conforme o tipo de crime encontrado:

•        remoção proativa, sem necessidade de notificação/ordem judicial - para casos considerados graves, como discurso de ódio, racismo, pedofilia, pornografia infantil, incitação à violência, crimes contra a mulher, tráfico de pessoas e defesa de golpe de Estado;

•        remoção após ordem judicial - para crimes contra a honra (como calúnia, injúria e difamação)

•        remoção após notificação extrajudicial (pelo usuário ou advogados) - para "danos decorrentes de conteúdos gerados por terceiros em casos de crime ou atos ilícitos", ou seja, para os demais crimes. É o chamado "notice and action", que é aplicado na União Europeia.

<><> Quem decide se existe falha recorrente?

Segundo o STF, conteúdos como discurso de ódio, racismo, pedofilia, incitação à violência e defesa de golpe de Estado devem ser removidos pelas plataformas de forma proativa e imediata — mesmo sem notificação prévia ou decisão judicial.

A responsabilidade civil, no entanto, só se aplica quando houver uma falha sistêmica, segundo Carlos Affonso Souza, advogado e diretor do Instituto de Tecnologia e Sociedade do Rio (ITS).

Ele explica que não existe uma definição jurídica precisa do que é uma falha sistêmica, mas que, de forma geral, se refere a situações em que falhas recorrentes das plataformas permitem a disseminação massiva de conteúdos ilícitos, gerando impactos graves e coletivos à sociedade.

Para Affonso, essa decisão do Supremo faz sentido, até porque as plataformas não teriam capacidade de monitorar tudo que circula nelas, mesmo com a ajuda de programas específicos.

“Não existe no mundo um software capaz de identificar com 100% de precisão, por exemplo, um ato antidemocrático.”

Ele alerta ainda que, até agora, não está definido quem decidirá se houve falha recorrente nas plataformas.

“O Supremo incorporou a ideia de risco sistêmico, que veio do PL das Fake News, mas não explicou quem decide se o risco é sistêmico: se será um juiz, o Ministério Público ou algum novo órgão”, afirmou.

O 'meio termo' que preocupa

Já o cenário em que as plataformas poderão ser responsabilizadas se não removerem o conteúdo ilegal após uma notificação extrajudicial pode levar a novos problemas, na visão de Affonso.

Isso porque, diferentemente dos casos graves, em que a remoção deve ser feita sem notificação, o STF não determinou quais crimes se enquadram nessa situação.

“Minha crítica é que, agora, praticamente todo o conteúdo ilícito foi jogado nessa prateleira. Isso pode levar à remoção excessiva de conteúdos lícitos, pois as plataformas vão preferir não correr riscos.”

Para Álvaro Palma, da FGV Direito Rio, a ideia de que possa haver remoções desnecessárias não se sustenta.

“Já existe controle. Hoje, ele é feito com base nos termos e condições de uso das plataformas. O que o Estado está dizendo agora é que esses mecanismos são insuficientes”, avalia.

<><> Crimes contra a honra

Para crimes contra a honra (como calúnia, injúria e difamação), o STF manteve a necessidade de ordem judicial prévia para a remoção do conteúdo.

“Você se sentiu injuriado? Só depois que sair a decisão judicial — e se ela for descumprida — é que a plataforma poderá ser responsabilizada. Isso não mudou”, explica Palma.

Affonso concorda com a decisão do Supremo. “Se (esses crimes) entrassem na lógica da notificação extrajudicial, isso poderia reduzir a visibilidade de denúncias, o que seria negativo”, afirma.

•        STF e a responsabilização das redes sociais: Liberdade em risco ou evolução jurídica necessária? Por Rodrigo Neves

A formação de maioria no Supremo Tribunal Federal (STF) para responsabilizar redes sociais por conteúdos publicados por seus usuários marca um divisor de águas na arquitetura jurídica e democrática do ambiente digital brasileiro. O julgamento do artigo 19 do Marco Civil da Internet (Lei nº 12.965/2014), que até então impunha como condição uma ordem judicial prévia para a responsabilização das plataformas, entra agora em um novo ciclo interpretativo: o da corresponsabilidade sem mediação judicial obrigatória.

O que está em jogo não é apenas a responsabilização cível por danos morais ou desinformação: é a estrutura simbólica e funcional do espaço público digital — e o risco de transferirmos o poder de moderação da Justiça para mecanismos privados, automatizados e, muitas vezes, opacos.

<><> De repositórios neutros a agentes ativos

Os votos já proferidos revelam um entendimento majoritário de que as plataformas deixaram de ser meras intermediárias técnicas para se tornarem verdadeiros meios de comunicação. O ministro Alexandre de Moraes, por exemplo, defendeu que redes sociais e serviços de mensagens sejam legalmente equiparados à mídia tradicional, com o argumento de que os algoritmos e sistemas de impulsionamento — muitas vezes pagos — tornam essas plataformas atores ativos na distribuição da informação.

Nesse modelo, a neutralidade das plataformas é vista como falaciosa. A lógica algorítmica seleciona, amplifica ou silencia conteúdos com base em critérios comerciais e não democráticos. Portanto, para Moraes, há responsabilidade solidária em casos de danos, especialmente quando há omissão diante de conteúdo denunciado como ilegal.

<><> O embate entre segurança jurídica e liberdade de expressão

Entretanto, ao reinterpretar o artigo 19 sem que o Congresso Nacional tenha reformado a norma, o STF corre o risco de enfraquecer o princípio da previsibilidade legal. A decisão abre margem para que empresas privadas atuem de forma preventiva, adotando modelos de moderação baseados em risco de punição, e não em critérios legais claros. O resultado pode ser o crescimento de uma cultura de autocensura corporativa, em que a precaução suprime a pluralidade.

Se hoje já vivemos um ambiente digital marcado por cancelamentos, tribalismo ideológico e pressão reputacional extrema, a imposição de uma nova camada de vigilância algorítmica pode agravar o colapso das mediações institucionais, substituindo a deliberação pública por filtros automatizados e decisões extrajudiciais.

<><> O Marco Civil da Internet sob revisão institucional

A base legal em discussão — o Marco Civil da Internet — foi celebrada internacionalmente por garantir a liberdade de expressão com responsabilização condicionada à decisão judicial. Reformar essa lógica exige cuidado institucional e debate público, não apenas interpretações monocráticas em tribunais superiores.

A maioria dos ministros entende que a regra do Marco Civil está defasada. Mas alterar sua essência por via judicial, em vez de legislativa, tensiona o equilíbrio entre os Poderes da República e fragiliza a estabilidade normativa conquistada na última década.

<><> Consequências para o ecossistema digital

Se prevalecer o entendimento de que plataformas devem agir proativamente mesmo sem ordem judicial, surgem implicações sérias:

•        Risco de censura preventiva: plataformas tenderão a remover conteúdos por precaução jurídica, o que pode silenciar opiniões legítimas, críticas e manifestações artísticas ou humorísticas, como já demonstrado no caso do humorista Léo Lins.

•        Assimetria entre grandes e pequenos players: apenas as big techs terão estrutura para moderar massivamente, o que pode inviabilizar o crescimento de redes alternativas ou startups de mídia.

•        Distorção da liberdade de expressão: o medo da responsabilização pode levar plataformas a adotar políticas de moderação mais restritivas que as próprias leis brasileiras, movidas por compliance e não por interesse público.

<><> O caminho necessário: regulação democrática e sobriedade institucional

O Brasil precisa sim atualizar seu marco legal diante das transformações digitais e da sofisticação dos abusos online. Mas esse processo deve ser conduzido com transparência, participação social e equilíbrio entre liberdades e responsabilidades.

A judicialização sem critérios claros enfraquece tanto a segurança jurídica quanto o pacto democrático. Ao invés de fortalecer a institucionalidade, pode acelerar a fragmentação do espaço público.

A liberdade de expressão não pode ser refém de algoritmos, tampouco pode ser blindagem para discurso de ódio. Mas o antídoto não é a repressão — é a inteligência institucional. O desafio do STF é encontrar uma fórmula que proteja direitos sem instaurar um regime de silêncio por medo.

A responsabilidade das plataformas precisa existir, mas precisa também respeitar a arquitetura democrática do país. O que o Brasil precisa agora é menos polarização e mais maturidade institucional para que a internet continue sendo um espaço de liberdade — com responsabilidade, sim, mas sem opressão.

•        Michelle aciona Justiça após ser chamada de “ex-garota de programa”. Por Paulo Capelli

A ex-primeira-dama Michelle Bolsonaro ingressou com uma queixa-crime contra a comunicadora Teônia Mikaelly Pereira de Sousa, integrante do podcast piauiense IELTV. Na ação, protocolada na 2ª Vara Criminal de Teresina, ela aponta os crimes de injúria e difamação, com agravantes pelo uso de redes sociais.

O processo foi motivado por declarações feitas por Teônia em episódios do podcast publicados nos dias 11 e 14 de junho. Nos vídeos, que já ultrapassaram 1 milhão de visualizações nas redes sociais, a apresentadora afirma que Michelle seria “ex-garota de programa” e que membros de sua família “têm passagem pela polícia”.

A defesa da ex-primeira-dama, representada pelo advogado Marcelo Luiz Ávila de Bessa, sustenta que as declarações são “completamente falsas e ofensivas” e teriam como objetivo atacar sua imagem pública.

“As publicações foram feitas com a intenção deliberada de humilhar, utilizando termos misóginos e desconexos da realidade”, afirma Bessa na petição apresentada à Justiça.

O advogado informou que descarta a possibilidade de acordo ou conciliação, em razão da repercussão das falas e da gravidade das acusações. A defesa também solicitou a participação do Ministério Público e pediu a condenação da ré com aplicação de agravantes legais, sobretudo por uso de plataformas de ampla divulgação.

O caso será julgado pela Justiça comum do Piauí, estado em que os conteúdos foram produzidos e divulgados.

 

Fonte: DW Brasil/g1/Metrópoles

 

Nenhum comentário: