STF
e 'big techs': Corte tem ampla maioria para endurecer regras para plataformas
O Supremo Tribunal Federal (STF) retomou nesta
quarta-feira (25/6) o julgamento que caminha para endurecer a regulamentação das
plataformas digitais no país. Já há maioria na Corte para isso.
Nono a
votar, Edson Fachin ficou ao lado do ministro André Mendonça, engrossando a
posição minoritária, a favor de manter as regras atuais.
Ele
defendeu a necessidade de uma "regulação estrutural e sistêmica", mas
disse que isso deveria ser feito, preferencialmente, pelo Congresso.
"Os
remédios para os males da democracia precisam ser encontrados dentro da caixa
de ferramentas da própria democracia", disse Fachin, ao votar.
Após
ele, votou Cármen Lúcia, ampliando a posição majoritária na Corte para que as
empresas sejam obrigadas a deletar conteúdos considerados criminosos, sem
necessidade de uma decisão judicial prévia como ocorre hoje.
Decidiram
também nesse sentido outros sete ministros: Dias Toffoli, Luiz Fux, Luís
Roberto Barroso, Flavio Dino, Cristiano Zanin, Gilmar Mendes e Alexandre de
Moraes.
Os
votos, porém, têm divergências entre si. Ainda não há um consenso sobre qual
será a extensão das novas obrigações e como elas serão aplicadas.
Um dos
desafios é definir qual instituição fará o acompanhamento e a fiscalização das
normas.
Segundo
ele, os ministros tentarão chegar a um acordo até amanhã para estabelecer uma
tese jurídica com as novas regras, sintetizando os principais pontos de
concordância entre eles. Mas ele adiantou que pode ser que o acordo demande
mais tempo.
Defensores
de regras mais rígidas sobre o setor dizem que isso vai evitar a circulação de
conteúdo criminoso, como mensagens que incentivem assassinatos em escolas ou
ataques contra o sistema democrático.
Já os
críticos consideram que as empresas vão acabar deletando conteúdos legítimos
com medo de punições, afetando a liberdade de expressão.
Apesar
de algumas diferenças no teor das decisões, os oito ministros que votaram pelo
endurecimento das regras defendem que empresas podem ser obrigadas a deletar
certos conteúdos após serem notificadas por usuários, sem necessidade de uma
decisão judicial específica.
E, em
casos de crimes considerados mais graves, como pornografia infantil, incitação
ao suicídio ou mensagens contra o Estado democrático, eles consideram que as
empresas têm obrigação de apagar os conteúdos mesmo sem notificação prévia.
Para a
maioria dos ministros, as empresas poderiam ser responsabilizadas caso se
comprove uma falha generalizada em conter esses conteúdos, por exemplo.
Alvo de
ameaças do governo de Donald Trump por decisões contrárias a interesses de
plataformas, Moraes foi o sétimo a votar.
Ele
defendeu o endurecimento das regras argumentando se tratar de um setor
bilionário, que lucra a partir do engajamento com conteúdos criminosos.
O
ministro exibiu, durante seu voto, mensagens que circulam nas plataformas com
claro teor racista, homofóbico e de apologia ao nazismo.
Segundo
Moraes, o Marco Civil da Internet — lei que está sendo questionada no
julgamento — tinha como premissa a neutralidade das empresas de tecnologia, o
que não seria o caso das plataformas digitais hoje.
"Esse
suposto mercado livre de ideias tecnológicas tem ideologia política, tem opção
religiosa, tem orientação de costumes, e é normal que tenha, mas não pode se
esconder sob uma falsa neutralidade. Não, [se] você impulsiona, você direciona,
você monetiza, então você deve assumir a responsabilidade", argumentou.
Moraes
também disse que é preciso se perguntar "se as big techs podem impor a
todos os países, inclusive ao Brasil, o seu modelo de negócio agressivo e
perverso, contrário à Constituição Federal, contrário à legislação brasileira,
tão somente porque ela é multinacional ou internacional."
Um dos
temas que gera divergência, mesmo entre os que defendem regras mais duras, é a
remoção de conteúdos no caso de crimes contra a honra, como calúnia e
difamação.
Parte
dos ministros defende que esse tipo de mensagem seja removida já a partir da
notificação, enquanto outros dizem que, nesses casos, ainda seria necessária
uma decisão judicial.
Zanin,
por sua vez, votou para que conteúdos claramente criminosos sejam removidos a
partir da notificação, enquanto mensagens em que o teor criminoso não seja
evidente — ou seja, em que exista dúvida se, de fato, seria calúnia ou
difamação — poderiam ser mantidas no ar até uma eventual decisão judicial pela
remoção.
"Me
parece importante nós refletirmos sobre essa diferenciação porque muitas e
muitas postagens repetem ofensas, inclusive já consideradas como crime contra a
honra na Justiça, com condenações por danos morais, condenações da justiça
criminal, e mesmo assim são repetidas e repetidas, anos e anos", defendeu
Moraes, durantes os debates do julgamento.
"E,
para cada uma dessas, se houver a necessidade de ingressar novamente em juízo,
nós vamos perder efetividade", continuou.
Barroso
concordou, mas defendeu que alguns casos deveriam ser tratados de forma
diferente.
"Eu
não tenho nenhuma dúvida [nesse caso], concordo plenamente. A minha dúvida é
como tratar [um conteúdo] assim: 'fulano enriqueceu dando golpes na praça'. Aí
o sujeito se sente injuriado, é a plataforma que tem que decidir se isso vai
ser removido ou não? Aí eu prefiro que seja uma briga privada entre o ofendido
e o ofensor [na Justiça], e não a plataforma intervindo", argumentou o
presidente do STF.
Até o
momento, André Mendonça e Edson Fachin foram os únicos que votaram para manter,
de modo geral, o atual modelo, em que empresas só podem ser responsabilizadas
por conteúdos de terceiros caso se recusem a cumprir decisões da Justiça.
Mendonça
destacou apenas três situações excepcionais em que as plataformas podem ser
penalizadas por não excluírem conteúdos criminosos, mesmo sem uma determinação
judicial.
Segundo
o ministro, são casos em que já previsão legal para obrigar a exclusão dos
conteúdos: postagens que firam direitos previstos no Estatuto da Criança e do
Adolescente, como pornografia infantil; conteúdos irregulares relacionados a
empresas de apostas (as chamadas bets); e conteúdos íntimos divulgados sem
autorização (como imagens de nudez).
Para
Mendonça, caberia apenas ao Congresso, por meio de novas leis, determinar
outros conteúdos que teriam que ser deletados sem prévia determinação da
Justiça.
"Excetuados
os casos expressamente autorizados em lei, as plataformas digitais não podem
ser responsabilizadas pela ausência de remoção de conteúdo veiculado por
terceiros", defendeu, ao votar na semana anterior.
Grandes
plataformas como Google (dona do YouTube), Meta (dona de Facebook, Instagram e
WhatsApp) e X (antigo Twitter) se opõem ao endurecimento das regras, que podem
aumentar seus custos operacionais e o risco de punições, como multas elevadas
caso não cumpram regras novas.
"As
plataformas vão ter que preventivamente remover qualquer conteúdo que seja
potencialmente questionável para evitar uma responsabilização ou um passivo
financeiro", disse o presidente do Google no Brasil, Fábio Coelho, em
entrevista recente ao portal UOL
A volta
do tema na Corte ocorreu após o aumento da tensão entre o STF, empresas do
setor e o governo dos Estados Unidos. Ao longo de maior, a gestão Trump intensificou as
ameaças de retaliação a autoridades estrangeiras que têm atuado
para regular plataformas digitais ou tomado decisões contra usuários que
estariam cometendo crimes em redes sociais — ações que a Casa Branca considera
censura.
O
ministro do STF Alexandre de Moraes foi citado
nominalmente como um dos potenciais alvos de sanções pelo secretário de Estado
dos EUA, Marco Rubio.
Entenda
melhor a seguir o contexto de ameaças ao STF, o que a Corte está julgando e o
que pode ser decidido.
<><>
O contexto de ameaças de Trump ao Supremo
A
análise do tema no STF começou em dezembro, mas foi interrompida por pedido de
vista (mais tempo para analisar o caso) do ministro André Mendonça. Com o fim
do prazo para vista, Mendonça liberou as ações para julgamento no final de maio
e o presidente da Corte, Luís Roberto Barroso, pautou o julgamento para início
de junho.
A
retomada ocorreu em um momento em que toda a Corte parece estar na mira do
governo Trump, mas o foco claro está em Moraes.
Nos
últimos anos, o ministro suspendeu contas em plataformas ou determinou a prisão
de pessoas que teriam proferido discursos antidemocráticos e ameaçado
autoridades brasileiras no ambiente virtual, atingindo grandes empresas
sediadas nos EUA. Ele chegou a suspender a atuação do X no país, quando a
empresa americana se recusou a cumprir suas decisões.
Atualmente,
o ministro é relator de um processo criminal sobre uma suposta tentativa de
golpe de Estado liderada pelo ex-presidente Jair Bolsonaro. O deputado Eduardo Bolsonaro (PL-SP)
está nos EUA articulando para que a Casa Branca retalie Moraes, por exemplo com a
proibição de sua entrada no país ou a aplicação Lei Global Magnitsky, que impede qualquer
pessoa ou empresa nos EUA de realizar transações econômicas com o alvo das
sanções.
Em
resposta, o ministro atendeu ao pedido da Procuradoria-Geral da República (PGR)
e abriu um inquérito para investigar o
filho do ex-presidente por tentativa de obstrução de Justiça.
Para
Pablo Ortellado, professor de gestão de políticas públicas na USP, a retomada
do julgamento neste momento pode ser entendida como uma resposta institucional
do STF às ameaças do governo Trump.
"Tem
um jogo de pressão mútua. Ficou claro nas manifestações do Departamento de
Estado [sobre potenciais sanções contra autoridades estrangeiras] que aquilo
era sobre o Brasil, sobretudo. E, secundariamente, por extensão, Europa. Não
sei se foi só isso, mas com certeza isso faz parte do contexto da retomada do
julgamento", ressalta.
Para a
especialista em governança e regulação digital Bruna Santos, as ameaças do
governo Trump mostram que a Casa Branca identificou que é do STF que pode sair
uma regulação das plataformas, já que o tema está travado no Congresso
brasileiro.
"A
retomada do julgamento, acima de tudo, é mais uma das demonstrações de força do
Judiciário brasileiro com relação ao tema de regulação de plataformas. Mostra
que o Judiciário tem esse interesse em oferecer respostas que o Congresso não
ofereceu", disse Santos, que atua na Witness, organização baseada nos EUA
que promove o uso da tecnologia para defesa dos direitos humanos.
A
regulamentação das plataformas é defendida pelo governo Lula e repudiada pelo
campo bolsonarista.
No
final de maio (30/5), Jair Bolsonaro exaltou a participação de Google e Meta no
2º Seminário Nacional de Comunicação do Partido Liberal (PL), em Fortaleza. As
duas empresas apresentaram como funcionam alguns de seus produtos, como
ferramentas de Inteligência Artificial.
Procuradas
pela BBC News Brasil, Google e Meta negaram qualquer alinhamento com campos
políticos e informaram que o mesmo tipo de apresentação já foi oferecido para
outras instituições e partidos.
"Passou
aqui o representante da Google e da Meta. Estão do lado certo, juntamente com
as diretrizes da Primeira Emenda [da Constituição] dos Estados Unidos. A
liberdade de expressão é a nossa alma, é o nosso oxigênio", afirmou
Bolsonaro, no evento.
Em seu
discurso, o ex-presidente também disse contar com a ajuda do governo Trump,
após citar a atuação do seu filho nos EUA.
"Não
é fácil, mas nós venceremos. Com a ajuda de Deus e também com a ajuda de outro
país lá do norte. Enganam-se aqueles que acham que só nós temos condições de
reverter esse sistema. Não temos. Precisamos de ajuda de terceiros",
disse.
Lula,
por sua vez, atacou a atuação de Eduardo Bolsonaro nos EUA e disse que, se algo
concreto acontecer, "o Brasil vai defender, não só o seu ministro, mas
defender a Suprema Corte".
"O
que é lamentável é que um deputado brasileiro, filho do ex-presidente, está lá
a convocar os Estados Unidos para se meter na política interna do Brasil. É uma
prática terrorista, um prática antipatriótica", disse, em entrevista a
jornalistas no início de junho (3/6) no Palácio do Planalto.
<><>
Entenda melhor o que está sendo julgado
As duas
ações questionam a constitucionalidade de trechos do Marco Civil da Internet —
ou seja, se trechos dessa lei estariam em desacordo com princípios da
Constituição e, por isso, devem ter sua aplicação alterada pelo STF.
O foco
principal é a validade do artigo 19, que estabelece que as plataformas digitais
não podem ser responsabilizadas por conteúdos compartilhados pelos usuários,
com exceção dos casos de "pornografia de vingança" (divulgação de
imagens de nudez sem autorização da pessoa fotografada/filmada).
Ou
seja, o artigo 19 significa que as empresas, na maioria dos casos, só são
obrigadas a apagar postagens após ordem judicial.
As duas
ações em julgamento tratam de casos concretos, mas a decisão terá repercussão
geral, ou seja, fixará parâmetros gerais para o funcionamento das plataformas.
Num dos
casos julgados, uma professora processou o Google porque a empresa se recusou a
apagar uma comunidade contra ela criada por alunos no Orkut, rede social que já
não existe mais. A professora chegou a notificar extrajudicialmente a
plataforma solicitando a exclusão da página antes de ingressar na Justiça, mas
não foi atendida.
No
outro caso em análise, uma mulher processou o Facebook (rede social do grupo
Meta) por se recusar a apagar um perfil falso criado com seu nome para divulgar
conteúdo ofensivo.
As duas
empresas argumentaram que não poderiam apagar conteúdos sem decisão judicial,
sob risco de ferir a liberdade de expressão.
"Ser
obrigação dos provedores de aplicações na internet as tarefas de analisar e
excluir conteúdo gerado por terceiros, sem prévia análise pela autoridade
judiciária competente, acaba por impor que empresas privadas — como o Facebook
Brasil e tantas outras — passem a controlar, censurar e restringir a
comunicação de milhares de pessoas, em flagrante contrariedade àquilo
estabelecido pela Constituição Federal e pelo Marco Civil da Internet",
argumentou o Facebook na ação.
Em
argumentação semelhante, a Google sustenta que não tem obrigação de indenizar a
professora por não ter removido a comunidade no Orkut antes de uma determinação
judicial:
"Não
sendo a Google possuidora do poder jurisdicional do Estado e não havendo
qualquer conteúdo manifestamente ilícito no perfil objeto da lide, não se
poderia esperar outra atitude sua do que aguardar o posicionamento do Poder
Judiciário", disse a empresa.
A
professora que processou a rede social, por sua vez, argumentou ao STF que
"admitir as razões da Recorrente (Google) seria correr o risco de se fazer
da internet uma terra sem lei, onde anonimamente, invocando a liberdade de
expressão e o direito de comunicação, praticar-se-á todo tipo de ato e crime
sem vigilância, consequência ou punição alguma".
<><>
O que pode ser decidido pelo STF?
Juristas
especialistas em direito digital ouvidos pela reportagem acreditam que o STF
vai ampliar a possibilidade de responsabilização das empresas em caso de
conteúdos criminosos compartilhados em suas plataformas.
Os
primeiros votos indicam que isso pode incluir conteúdos como pornografia
infantil e crimes graves contra crianças e adolescentes; instigação a suicídio
ou a automutilação; tráfico de pessoas; atos de terrorismo; abolição violenta
do Estado Democrático de Direito e golpe de Estado.
A ideia
é que empresas poderiam ser punidas caso não atuem de forma proativa para
coibir, de forma ampla, conteúdos mais graves ou em caso de notificações
extrajudiciais contra publicações específicas.
Se a
maioria do STF de fato for por esse caminho, a expectativa é que a Corte
estabeleça uma nova interpretação do artigo 19 do Marco Civil da Internet
"conforme a Constituição" — ou seja, uma nova aplicação da lei que
estaria mais adequada à conciliação de preceitos constitucionais como a
inviolabilidade da honra e da imagem dos indivíduos e os direitos à liberdade
de expressão e de livre comunicação.
A saída
divide juristas. Para alguns, o tema deveria ser decidido no Congresso
Nacional, com amplo debate e participação da sociedade. Propostas de novas leis
sobre o tema, porém, têm ficado travadas devido à grande divisão dos
parlamentares.
Para
Pablo Ortellado, a pressão do governo Trump não deve evitar que os ministros do
STF decidam por uma regulamentação mais dura. Defensor de que essa mudança
deveria partir do Congresso, ele diz temer que o STF "pese a mão".
"É
meio esperado que vai ser considerado inconstitucional o artigo 19, mas o que
vai ser colocado no lugar? Não conseguiria nem chutar aqui porque os ministros
[que já votaram] falaram coisas muito desencontradas", disse à reportagem
no início de junho, sobre os três primeiros votos (Toffoli, Fux e Barroso).
"É
muito importante que a gente tenha uma regulação equilibrada. Uma resposta boa
do ponto de vista técnico seria a gente ter alguma coisa como o 'dever de
cuidado' europeu, mas não sei o que vai vir", defendeu.
O
"dever de cuidado" adotado pela União Europeia é a obrigação das
plataformas de atuar sistematicamente para evitar a circulação de conteúdos
criminosos. As empresas devem produzir relatórios frequentes sobre suas ações e
podem ser punidas se ficar comprovada uma falha sistemática em coibir esses
conteúdos.
Isso
exigiria uma instância para fazer essa fiscalização. O ministro Toffoli chegou
a propor em seu voto a criação de um departamento no Conselho Nacional de
Justiça (CNJ) para acompanhar a aplicação da decisão do STF no julgamento em
curso.
Os
ministros estão debatendo outras propostas. Dino sugeriu que a função ficasse a
cargo da Procuradoria-Geral da República, até que o Congresso legisle.
<><>
O que dizem as plataformas?
Procuradas
pela BBC News Brasil, empresas do setor manifestam preocupação com o julgamento
do STF.
A
Câmara Brasileira da Economia Digital (camara-e.net) — que representa empresas
de serviços digitais e comércio eletrônico, incluindo Google, Meta e TikTok —
disse, em nota, que a formação de maioria no STF "a favor da
responsabilização de plataformas digitais por conteúdos publicados por
terceiros, mesmo sem decisão judicial, representa um retrocesso preocupante
para o ecossistema da internet brasileira".
Na
visão da organização, "a tese que se desenha rompe com o equilíbrio
estabelecido pelo Marco Civil da Internet e pode abrir precedentes para
insegurança jurídica, judicialização em massa, aumento de barreiras à inovação
e exclusão preventiva de conteúdos legítimos".
Diante
da maioria formada no STF, a camara-e.net pede que a Corte estabeleça "com
urgência critérios rigorosos, claros e proporcionais para conter esse
retrocesso".
"É
imprescindível que a remoção de conteúdos, além dos casos manifestamente
ilegais, só ocorra mediante ordem judicial ou, no mínimo, notificação formal e
fundamentada, com salvaguardas sólidas que previnam abusos, eliminem
insegurança jurídica e garantam o equilíbrio necessário entre a proteção de
direitos e a liberdade de expressão", defendeu ainda a camara-e.net.
Em nota
enviada à reportagem, o Google disse que já remove "centenas de milhões de
conteúdos" que violam suas regras e defendeu o atual modelo, em que a
Justiça é quem determina a retirada de outros conteúdos.
"Boas
práticas de moderação de conteúdo por empresas privadas são incapazes de lidar
com todos os conteúdos controversos, na variedade e profundidade com que eles
se apresentam na internet, refletindo a complexidade da própria
sociedade."
"A
atuação judicial nesses casos é um dos pontos mais importantes do Marco Civil
da Internet, que reconhece a atribuição do Poder Judiciário para atuar nessas
situações e traçar a fronteira entre discursos ilícitos e críticas
legítimas".
Questionada
sobre atuação do Google em um seminário de comunicação do PL, a empresa diz que
oferece treinamento para diferentes partidos.
"O
Google participa de inúmeros eventos oferecendo treinamentos, com foco em
ferramentas como Gemini e Google Trends. Esse tipo de iniciativa contribui com
o entendimento de profissionais em diversas áreas sobre novas tecnologias,
incluindo a inteligência artificial".
"Ao
longo dos últimos anos, o Google ministrou treinamentos para organizações pelo
país, incluindo partidos políticos de todos os campos, órgãos públicos,
empresas e empreendedores."
Procurada,
a Meta enviou à reportagem manifestação da empresa de dezembro, quando o STF
iniciou o julgamento.
"Temos
uma longa história de diálogo e colaboração com as autoridades no Brasil,
incluindo o Judiciário. Mas nenhuma grande democracia no mundo jamais tentou
implementar um regime de responsabilidade para plataformas digitais semelhante
ao que foi sugerido até aqui no julgamento no STF".
"Não
é o caso do regime previsto na Lei dos Serviços Digitais (DSA, na sigla em
inglês) na União Europeia, nem no NetzDG na Alemanha ou na Seção 230 do
Communications Decency Act (CDA) nos Estados Unidos".
A
empresa disse esperar "que seja alcançada uma solução balanceada sobre o
regime de responsabilidade das plataformas digitais no Brasil à medida que o
julgamento sobre a constitucionalidade do Artigo 19 do Marco Civil da Internet
avança".
Questionada
sobre atuação da Meta no seminário de comunicação do PL, a empresa respondeu:
"Treinamentos com partidos políticos com presença no Congresso Nacional
são parte recorrente do nosso trabalho há muitos anos. Oferecemos esses
encontros para capacitar suas equipes sobre boas práticas em nossas
plataformas."
A
reportagem tentou contato com o X, por meio do escritório da advogada Rachel
Vila Nova Conceição, representante legal da empresa no Brasil, mas não obteve
retorno.
Fonte:
BBC News Brasil

Nenhum comentário:
Postar um comentário