STF:
redes são responsáveis por conteúdos de terceiros
O
Supremo Tribunal Federal (STF) decidiu nesta quinta-feira (06/26) que as redes
sociais poderão ser responsabilizadas por postagens irregulares de terceiros,
ou seja, dos usuários das plataformas.
Por 8
votos a 3, os juízes decidiram que o artigo 19 do Marco Civil da Internet, que
diz respeito à responsabilidade das redes sociais, é parcialmente
inconstitucional.
O
artigo em questão exige uma ordem judicial específica para responsabilização
civil das redes por postagens ofensivas. Os magistrados, porém, entenderam que
esse procedimento oferecia proteção insuficiente aos direitos fundamentais das
vítimas, como a honra e a dignidade. A partir de agora, o Marco Civil da
Internet deverá passar por ajustes até que o Congresso aprove uma nova
legislação sobre o tema.
Até que
isso aconteça, as plataformas podem ser responsabilizadas civilmente nos termos
do artigo 21 do Marco Civil por danos gerados por conteúdo de terceiros,
inclusive quando se tratar de contas inautênticas.
Apesar
de o STF já ter garantido anteriormente a maioria para ampliar a
responsabilização das plataformas, ainda era necessário um acordo em torno do
texto final do julgamento em razão de divergências entre alguns dos juízes
sobre a amplitude, o momento e os casos em que as empresas devem ser
responsabilizadas.
<><>
Plataformas devem agir proativamente
Após a
decisão desta quinta-feira, as redes deverão acatar notificações extrajudiciais
feitas pelas vítimas ou seus advogados para remover um conteúdo irregular. Se
após ser notificada a plataforma não agir e, mais tarde, a Justiça considerar
que o conteúdo era irregular, a rede estará sujeita a responsabilização civil.
A
decisão estabelece que as redes devem agir de forma proativa e imediata para
remover conteúdos, mesmo sem notificação prévia, em casos de discurso de ódio,
racismo, pedofilia, incitação à violência ou a um golpe de Estado. Em casos de
omissão, as plataformas poderão estar sujeitas à responsabilização civil
direta. Essa punição, no entanto, não se aplica à legislação eleitoral, regida
por regras próprias e normas do Tribunal Superior Eleitoral (TSE).
A
decisão do STF, além de transformar a lógica de funcionamento das redes sociais
no Brasil, deve levar as empresas de tecnologia a adotar protocolos mais
rigorosos de moderação de conteúdo e criar meios eficazes de recebimento de
denúncias e notificações extrajudiciais.
• Redes sociais não serão
responsabilizadas por todos os posts criminosos, mesmo após decisão do STF,
dizem especialistas
Redes
sociais não serão responsabilizadas por todos os posts criminosos, mesmo depois
de o Supremo Tribunal Federal (STF) determinar situações em que esses conteúdos
devem ser derrubados sem ordem judicial, dizem especialistas ouvidos pelo g1.
Até
então, o Marco Civil, que rege a internet no Brasil, só previa isso em casos de
posts com cenas de nudez ou de atos sexuais de caráter privado, sem a
autorização dos participantes.
Mas a
mudança determinada pelo STF só valerá quando a Justiça entender que existiu
falha sistêmica das plataformas, segundo advogados.
"O
caso individual, a princípio, serve para lançar luz sobre o tema, mas a
responsabilização só ocorre se for identificado um problema maior,
recorrente", disse Álvaro Palma, advogado constitucionalista e professor
da FGV Direito Rio.
<><>
O que o STF mudou em relação às redes
O
julgamento no STF sobre as redes foi encerrado nesta quinta (26), mas os
ministros já tinham formado maioria no último dia 11.
Além da
conclusão dos votos, faltava que acertassem os detalhes sobre em quais casos se
daria essa responsabilização das redes, o que também foi feito nesta quinta.
O
Supremo definiu três formas de atuação das redes sociais contra posts ilegais,
conforme o tipo de crime encontrado:
• remoção proativa, sem necessidade de
notificação/ordem judicial - para casos considerados graves, como discurso de
ódio, racismo, pedofilia, pornografia infantil, incitação à violência, crimes
contra a mulher, tráfico de pessoas e defesa de golpe de Estado;
• remoção após ordem judicial - para
crimes contra a honra (como calúnia, injúria e difamação)
• remoção após notificação extrajudicial
(pelo usuário ou advogados) - para "danos decorrentes de conteúdos gerados
por terceiros em casos de crime ou atos ilícitos", ou seja, para os demais
crimes. É o chamado "notice and action", que é aplicado na União
Europeia.
<><>
Quem decide se existe falha recorrente?
Segundo
o STF, conteúdos como discurso de ódio, racismo, pedofilia, incitação à
violência e defesa de golpe de Estado devem ser removidos pelas plataformas de
forma proativa e imediata — mesmo sem notificação prévia ou decisão judicial.
A
responsabilidade civil, no entanto, só se aplica quando houver uma falha
sistêmica, segundo Carlos Affonso Souza, advogado e diretor do Instituto de
Tecnologia e Sociedade do Rio (ITS).
Ele
explica que não existe uma definição jurídica precisa do que é uma falha
sistêmica, mas que, de forma geral, se refere a situações em que falhas
recorrentes das plataformas permitem a disseminação massiva de conteúdos
ilícitos, gerando impactos graves e coletivos à sociedade.
Para
Affonso, essa decisão do Supremo faz sentido, até porque as plataformas não
teriam capacidade de monitorar tudo que circula nelas, mesmo com a ajuda de
programas específicos.
“Não
existe no mundo um software capaz de identificar com 100% de precisão, por
exemplo, um ato antidemocrático.”
Ele
alerta ainda que, até agora, não está definido quem decidirá se houve falha
recorrente nas plataformas.
“O
Supremo incorporou a ideia de risco sistêmico, que veio do PL das Fake News,
mas não explicou quem decide se o risco é sistêmico: se será um juiz, o
Ministério Público ou algum novo órgão”, afirmou.
O 'meio
termo' que preocupa
Já o
cenário em que as plataformas poderão ser responsabilizadas se não removerem o
conteúdo ilegal após uma notificação extrajudicial pode levar a novos
problemas, na visão de Affonso.
Isso
porque, diferentemente dos casos graves, em que a remoção deve ser feita sem
notificação, o STF não determinou quais crimes se enquadram nessa situação.
“Minha
crítica é que, agora, praticamente todo o conteúdo ilícito foi jogado nessa
prateleira. Isso pode levar à remoção excessiva de conteúdos lícitos, pois as
plataformas vão preferir não correr riscos.”
Para
Álvaro Palma, da FGV Direito Rio, a ideia de que possa haver remoções
desnecessárias não se sustenta.
“Já
existe controle. Hoje, ele é feito com base nos termos e condições de uso das
plataformas. O que o Estado está dizendo agora é que esses mecanismos são
insuficientes”, avalia.
<><>
Crimes contra a honra
Para
crimes contra a honra (como calúnia, injúria e difamação), o STF manteve a
necessidade de ordem judicial prévia para a remoção do conteúdo.
“Você
se sentiu injuriado? Só depois que sair a decisão judicial — e se ela for
descumprida — é que a plataforma poderá ser responsabilizada. Isso não mudou”,
explica Palma.
Affonso
concorda com a decisão do Supremo. “Se (esses crimes) entrassem na lógica da
notificação extrajudicial, isso poderia reduzir a visibilidade de denúncias, o
que seria negativo”, afirma.
• STF e a responsabilização das redes
sociais: Liberdade em risco ou evolução jurídica necessária? Por Rodrigo Neves
A
formação de maioria no Supremo Tribunal Federal (STF) para responsabilizar
redes sociais por conteúdos publicados por seus usuários marca um divisor de
águas na arquitetura jurídica e democrática do ambiente digital brasileiro. O
julgamento do artigo 19 do Marco Civil da Internet (Lei nº 12.965/2014), que
até então impunha como condição uma ordem judicial prévia para a
responsabilização das plataformas, entra agora em um novo ciclo interpretativo:
o da corresponsabilidade sem mediação judicial obrigatória.
O que
está em jogo não é apenas a responsabilização cível por danos morais ou
desinformação: é a estrutura simbólica e funcional do espaço público digital —
e o risco de transferirmos o poder de moderação da Justiça para mecanismos
privados, automatizados e, muitas vezes, opacos.
<><>
De repositórios neutros a agentes ativos
Os
votos já proferidos revelam um entendimento majoritário de que as plataformas
deixaram de ser meras intermediárias técnicas para se tornarem verdadeiros
meios de comunicação. O ministro Alexandre de Moraes, por exemplo, defendeu que
redes sociais e serviços de mensagens sejam legalmente equiparados à mídia
tradicional, com o argumento de que os algoritmos e sistemas de impulsionamento
— muitas vezes pagos — tornam essas plataformas atores ativos na distribuição
da informação.
Nesse
modelo, a neutralidade das plataformas é vista como falaciosa. A lógica
algorítmica seleciona, amplifica ou silencia conteúdos com base em critérios
comerciais e não democráticos. Portanto, para Moraes, há responsabilidade
solidária em casos de danos, especialmente quando há omissão diante de conteúdo
denunciado como ilegal.
<><>
O embate entre segurança jurídica e liberdade de expressão
Entretanto,
ao reinterpretar o artigo 19 sem que o Congresso Nacional tenha reformado a
norma, o STF corre o risco de enfraquecer o princípio da previsibilidade legal.
A decisão abre margem para que empresas privadas atuem de forma preventiva,
adotando modelos de moderação baseados em risco de punição, e não em critérios
legais claros. O resultado pode ser o crescimento de uma cultura de autocensura
corporativa, em que a precaução suprime a pluralidade.
Se hoje
já vivemos um ambiente digital marcado por cancelamentos, tribalismo ideológico
e pressão reputacional extrema, a imposição de uma nova camada de vigilância
algorítmica pode agravar o colapso das mediações institucionais, substituindo a
deliberação pública por filtros automatizados e decisões extrajudiciais.
<><>
O Marco Civil da Internet sob revisão institucional
A base
legal em discussão — o Marco Civil da Internet — foi celebrada
internacionalmente por garantir a liberdade de expressão com responsabilização
condicionada à decisão judicial. Reformar essa lógica exige cuidado
institucional e debate público, não apenas interpretações monocráticas em
tribunais superiores.
A
maioria dos ministros entende que a regra do Marco Civil está defasada. Mas
alterar sua essência por via judicial, em vez de legislativa, tensiona o
equilíbrio entre os Poderes da República e fragiliza a estabilidade normativa
conquistada na última década.
<><>
Consequências para o ecossistema digital
Se
prevalecer o entendimento de que plataformas devem agir proativamente mesmo sem
ordem judicial, surgem implicações sérias:
• Risco de censura preventiva: plataformas
tenderão a remover conteúdos por precaução jurídica, o que pode silenciar
opiniões legítimas, críticas e manifestações artísticas ou humorísticas, como
já demonstrado no caso do humorista Léo Lins.
• Assimetria entre grandes e pequenos
players: apenas as big techs terão estrutura para moderar massivamente, o que
pode inviabilizar o crescimento de redes alternativas ou startups de mídia.
• Distorção da liberdade de expressão: o
medo da responsabilização pode levar plataformas a adotar políticas de
moderação mais restritivas que as próprias leis brasileiras, movidas por
compliance e não por interesse público.
<><>
O caminho necessário: regulação democrática e sobriedade institucional
O
Brasil precisa sim atualizar seu marco legal diante das transformações digitais
e da sofisticação dos abusos online. Mas esse processo deve ser conduzido com
transparência, participação social e equilíbrio entre liberdades e
responsabilidades.
A
judicialização sem critérios claros enfraquece tanto a segurança jurídica
quanto o pacto democrático. Ao invés de fortalecer a institucionalidade, pode
acelerar a fragmentação do espaço público.
A
liberdade de expressão não pode ser refém de algoritmos, tampouco pode ser
blindagem para discurso de ódio. Mas o antídoto não é a repressão — é a
inteligência institucional. O desafio do STF é encontrar uma fórmula que
proteja direitos sem instaurar um regime de silêncio por medo.
A
responsabilidade das plataformas precisa existir, mas precisa também respeitar
a arquitetura democrática do país. O que o Brasil precisa agora é menos
polarização e mais maturidade institucional para que a internet continue sendo
um espaço de liberdade — com responsabilidade, sim, mas sem opressão.
• Michelle aciona Justiça após ser chamada
de “ex-garota de programa”. Por Paulo Capelli
A
ex-primeira-dama Michelle Bolsonaro ingressou com uma queixa-crime contra a
comunicadora Teônia Mikaelly Pereira de Sousa, integrante do podcast piauiense
IELTV. Na ação, protocolada na 2ª Vara Criminal de Teresina, ela aponta os
crimes de injúria e difamação, com agravantes pelo uso de redes sociais.
O
processo foi motivado por declarações feitas por Teônia em episódios do podcast
publicados nos dias 11 e 14 de junho. Nos vídeos, que já ultrapassaram 1 milhão
de visualizações nas redes sociais, a apresentadora afirma que Michelle seria
“ex-garota de programa” e que membros de sua família “têm passagem pela
polícia”.
A
defesa da ex-primeira-dama, representada pelo advogado Marcelo Luiz Ávila de
Bessa, sustenta que as declarações são “completamente falsas e ofensivas” e
teriam como objetivo atacar sua imagem pública.
“As
publicações foram feitas com a intenção deliberada de humilhar, utilizando
termos misóginos e desconexos da realidade”, afirma Bessa na petição
apresentada à Justiça.
O
advogado informou que descarta a possibilidade de acordo ou conciliação, em
razão da repercussão das falas e da gravidade das acusações. A defesa também
solicitou a participação do Ministério Público e pediu a condenação da ré com
aplicação de agravantes legais, sobretudo por uso de plataformas de ampla
divulgação.
O caso
será julgado pela Justiça comum do Piauí, estado em que os conteúdos foram
produzidos e divulgados.
Fonte:
DW Brasil/g1/Metrópoles

Nenhum comentário:
Postar um comentário