Regras
mais duras sobre 'big techs': 4 pontos para entender o que muda com decisão do
STF
O
Supremo Tribunal Federal (STF) encerrou o julgamento que endurece a
regulamentação das plataformas digitais no país.
A maioria
da Corte decidiu que as empresas podem ser responsabilizadas por conteúdos
criminosos postados por terceiros. Ou seja, as companhias poderão ser punidas
se não atuarem para apagar esses conteúdos com agilidade.
O STF
estabeleceu diferentes graus de responsabilidade: certos conteúdos criminosos
deverão ser apagados após notificação dos usuários.
No
entanto, conteúdos considerados mais graves — como mensagens antidemocráticas,
postagens de instigação a suicídio, pornografia infantil, entre outras —
deverão ser removidos ativamente pelas empresas, independentemente de
notificações.
Da
mesma forma, as empresas também deverão agir ativamente para inibir e apagar
postagens criminosas no caso de conteúdos distribuídos por anúncios,
impulsionamentos ou artificialmente por robôs.
Por
outro lado, a Corte estabeleceu que as novas regras não serão aplicadas sobre
mensagens trocadas privadamente em provedores de serviços de mensagens
instantâneas, como o WhatsApp.
Antes
dessa decisão, o Marco Civil da Internet previa que as plataformas só eram
obrigadas a deletar conteúdos após decisões judiciais. A única exceção ocorria
nos casos de "pornografia de vingança" (divulgação de imagens de
nudez sem autorização da pessoa fotografada/filmada).
Oito
ministros votaram pelo endurecimento das regras: Dias Toffoli, Luiz Fux, Luís
Roberto Barroso, Flavio Dino, Cristiano Zanin, Gilmar Mendes, Alexandre de
Moraes e Cármen Lúcia.
Eles
entendem que a previsão atual do Marco Civil da Internet "não confere
proteção suficiente a bens jurídicos constitucionais de alta relevância
(proteção de direitos fundamentais e da democracia)".
Por
isso, declararam a lei parcialmente constitucional e estabeleceram as novas
regras, prevendo que elas terão validade até que o Congresso aprove uma nova
legislação. A decisão, inclusive, faz um apelo para que o Parlamento legisle.
O tema,
porém, divide muito os congressistas, o que tem dificultado aprovação de uma
lei.
Três
ministros ficaram contra o endurecimento das regras pelo STF: André Mendonça,
Edson Fachin e Nunes Marques. Eles consideraram que apenas o Legislativo
poderia alterar as obrigações das plataformas.
Defensores
de regras mais rígidas sobre o setor dizem que isso vai evitar a circulação de
conteúdo criminoso, como mensagens que incentivem assassinatos em escolas ou
ataques contra o sistema democrático.
Já os
críticos consideram que as empresas vão acabar deletando conteúdos legítimos
com medo de punições, afetando a liberdade de expressão.
Grandes
plataformas como Google (dona do YouTube), Meta (dona de Facebook, Instagram e
WhatsApp) e X (antigo Twitter) se opõem ao endurecimento das regras, que podem
aumentar seus custos operacionais e o risco de punições, como multas elevadas,
caso não cumpram regras novas.
A
especialista em governança e regulação digital Bruna Santos considerou a
decisão do STF "problemática".
"A
gente volta para aquele estado meio de faroeste digital que existia antes da
aprovação do Marco Civil, em que qualquer pessoa pode denunciar qualquer post e
não existe uma base mínima de definição sobre isso", disse Santos, que
atua na Witness, organização baseada nos EUA que promove o uso da tecnologia
para defesa dos direitos humanos.
Já o
professor da FGV Direito Rio Filipe Medon, especialista em Direito Digital,
acredita que "a decisão traz um avanço muito grande" e aproxima as
regras brasileiras daquelas aplicadas às plataformas na União Europeia.
"Chegou
num ponto de insustentabilidade em que era preciso tomar uma atitude. A minha
expectativa a partir de agora é que, como essa decisão foi um golpe duro para
as empresas, as empresas vão pressionar o Congresso a legislar".
Entenda
a seguir melhor quatro pontos da decisão do STF.
1)
Obrigação de apagar conteúdos criminosos por notificação
O STF
estabeleceu que conteúdos criminosos deverão ser apagados a partir de
notificação. Isso também valerá no caso de contas denunciadas como inautênticas
(perfis falsos).
No
entanto, foi estabelecida uma exceção: plataformas não serão obrigadas a apagar
conteúdos com crimes contra a honra, como injúria e difamação.
Nesse
caso, a empresa poderá deletar eventual conteúdo ofensivo se contrariar as
regras da própria plataforma, mas não sofrerá punição se optar por manter no
ar, a não ser que haja uma decisão judicial determinando a remoção.
O tema
dividiu os ministros.
"A
minha dúvida é como tratar [um conteúdo] assim: 'fulano enriqueceu dando golpes
na praça'. Aí o sujeito se sente injuriado, é a plataforma que tem que decidir
se isso vai ser removido ou não? Aí eu prefiro que seja uma briga privada entre
o ofendido e o ofensor [na Justiça], e não a plataforma intervindo",
argumentou o presidente do STF, Luiz Barroso, durante o julgamento.
2)
'Dever de cuidado' contra circulação massiva de conteúdos graves
A Corte
incorporou em sua decisão o "dever de cuidado", princípio previsto na
legislação da União Europeia que obriga as plataformas a atuarem
sistematicamente para evitar a circulação de conteúdos criminosos.
Segundo
o STF, essa obrigação vai ser aplicada em caso de conteúdos considerados mais
graves. A decisão lista quais são e aponta as leis que estabelecem esses
crimes:
• certas condutas e atos antidemocráticos
previstos nos Código Penal;
• crimes de terrorismo ou preparatórios de
terrorismo tipificados em lei;
• crimes de induzimento, instigação ou
auxílio a suicídio ou a automutilação previstos no Código penal;
• incitação à discriminação em razão de
raça, cor, etnia, religião, procedência nacional, sexualidade ou identidade de
gênero (condutas homofóbicas e transfóbicas), passíveis de enquadramento na Lei
do Racismo;
• crimes praticados contra a mulher em
razão da condição do sexo feminino, inclusive conteúdos que propagam ódio ou
aversão às mulheres, conforme previstos em leis;
• crimes sexuais contra pessoas
vulneráveis, pornografia infantil e crimes graves contra crianças e
adolescentes, nos termos do Código Penal e do Estatuto da Criança e do
Adolescente;
• tráfico de pessoas, conforme código
penal.
A
decisão esclarece que, nos casos acima, as empresas serão punidas caso se
comprove falha sistêmica para coibir esses conteúdos. Dessa forma, eventuais
casos pontuais, isolados, não devem gerar punição.
"Considera-se
falha sistêmica, imputável ao provedor de aplicações de internet, deixar de
adotar adequadas medidas de prevenção ou remoção dos conteúdos ilícitos
anteriormente listados, configurando violação ao dever de atuar de forma
responsável, transparente e cautelosa", estabeleceu a Corte.
O STF
prevê ainda que uma pessoa que tenha seu conteúdo deletado poderá contestar a
ação da plataforma judicialmente para que sua postagem volte ao ar.
"Ainda
que o conteúdo seja restaurado por ordem judicial, não haverá imposição de
indenização ao provedor", ressalvou a decisão.
3) Quem
vai fiscalizar e punir as empresas que descumprirem as novas regras?
O STF
não esclareceu objetivamente em sua decisão como as empresas serão
fiscalizadas.
Ao
longo do julgamento, ministros sugeririam algumas opções, como o Conselho
Nacional de Justiça (CNJ), a Autoridade Nacional de Proteção de Dados (ANPD) ou
a Procuradoria-Geral da República. A falta de uma decisão indica que não houve
consenso.
Para
Filipe Medon, da FGV, a decisão abre a possibilidade de que diferentes
instituições possam atuar denunciando as plataformas. A mais óbvia seria o
Ministério Público.
"O
Ministério Público vai poder entrar com uma ação dizendo: 'Justiça, está
acontecendo aqui uma violação sistêmica, a empresa não está fazendo nada,
responsabilize essa empresa'", exemplifica.
Na sua
visão, as novas regras entram em vigor com a publicação no Diário Oficial da
Justiça.
"Mas
obviamente as empresas vão correr com isso, porque, se elas perderem tempo,
pode ser tarde demais".
4)
Canais para contestar remoções
A
decisão estabelece ainda que cada plataforma tenha sua autorregularão, prevendo
"sistema de notificações, devido processo e relatórios anuais de
transparência em relação a notificações extrajudiciais, anúncios e
impulsionamentos".
Segundo
Filipe Medon, o "devido processo" previsto pela Corte é a obrigação
de as empresas oferecerem canais para que pessoas possam contestar eventuais
remoções de seus conteúdos.
"Tanto
quanto possível, [plataformas deverão] oportunizar que as pessoas afetadas pela
decisão de excluir o conteúdo sejam ouvidas e se defendam, por exemplo, para
dizer que o conteúdo é lícito e não deveria ser removido", explica.
A
decisão do STF estabelece ainda que as empresas deverão disponibilizar a
usuários e não usuários "canais específicos de atendimento,
preferencialmente eletrônicos, que sejam acessíveis e amplamente divulgados nas
respectivas plataformas de maneira permanente."
Além
disso, toda empresa com atuação no país deverá manter sede e representante
legal no país, com identificação e informações para contato facilmente
acessíveis.
<><>
O que dizem as plataformas?
Procuradas
pela BBC News Brasil, empresas do setor manifestam preocupação com o julgamento
do STF.
A
Câmara Brasileira da Economia Digital (camara-e.net) — que representa empresas
de serviços digitais e comércio eletrônico, incluindo Google, Meta e TikTok —
disse, em nota, que a formação de maioria no STF "a favor da
responsabilização de plataformas digitais por conteúdos publicados por
terceiros, mesmo sem decisão judicial, representa um retrocesso preocupante
para o ecossistema da internet brasileira".
Na
visão da organização, "a tese que se desenha rompe com o equilíbrio
estabelecido pelo Marco Civil da Internet e pode abrir precedentes para
insegurança jurídica, judicialização em massa, aumento de barreiras à inovação
e exclusão preventiva de conteúdos legítimos".
Em nota
enviada à reportagem antes do término do julgamento, o Google disse que já
remove "centenas de milhões de conteúdos" que violam suas regras e
defendeu o atual modelo, em que a Justiça é quem determina a retirada de outros
conteúdos.
"Boas
práticas de moderação de conteúdo por empresas privadas são incapazes de lidar
com todos os conteúdos controversos, na variedade e profundidade com que eles
se apresentam na internet, refletindo a complexidade da própria
sociedade."
"A
atuação judicial nesses casos é um dos pontos mais importantes do Marco Civil
da Internet, que reconhece a atribuição do Poder Judiciário para atuar nessas
situações e traçar a fronteira entre discursos ilícitos e críticas
legítimas".
Procurada,
a Meta enviou à reportagem manifestação da empresa de dezembro, quando o STF
iniciou o julgamento.
"Temos
uma longa história de diálogo e colaboração com as autoridades no Brasil,
incluindo o Judiciário. Mas nenhuma grande democracia no mundo jamais tentou
implementar um regime de responsabilidade para plataformas digitais semelhante
ao que foi sugerido até aqui no julgamento no STF".
"Não
é o caso do regime previsto na Lei dos Serviços Digitais (DSA, na sigla em
inglês) na União Europeia, nem no NetzDG na Alemanha ou na Seção 230 do
Communications Decency Act (CDA) nos Estados Unidos".
A
empresa disse esperar "que seja alcançada uma solução balanceada sobre o
regime de responsabilidade das plataformas digitais no Brasil à medida que o
julgamento sobre a constitucionalidade do Artigo 19 do Marco Civil da Internet
avança".
Fonte:
BBC News Brasil

Nenhum comentário:
Postar um comentário