PL das Fake News: “regular as plataformas é uma tarefa da nossa geração”
Após
o 8 de janeiro, a urgência de regular a comunicação nas plataformas digitais de
modo a diminuir a disseminação de conteúdos nocivos cresceu entre as
autoridades públicas, assim como as cobranças da sociedade civil para que o Executivo,
o Legislativo e o Judiciário façam algo. O atual presidente, Luiz Inácio Lula
da Silva (PT), já disse algumas vezes que esse é um dos focos de sua gestão.
Nas
últimas semanas, ao menos 4
estruturas do governo federal assumiram a função de enfrentar a
desinformação, mas, mesmo que várias áreas estejam abordando o assunto, não
está claro qual será a proposta do governo federal, como explica nesta
entrevista Francisco Brito Cruz, diretor executivo
do InternetLab.
“Eu
não sei quais são as posições do governo. O governo não colocou nada público
sobre suas próprias posições”, afirmou ele. Francisco é advogado e doutor pela
Faculdade de Direito da Universidade de São Paulo, coordenou o Núcleo de
Direito, Internet e Sociedade da USP. Ele também é autor do livro “Novo jogo,
velhas regras” (Letramento, 2020).
Ele
também explicou que “as redes sociais hoje sustentam a estrutura onde o debate
público está acontecendo”, o que significa que mexer nelas é delicado. É
necessário ter salvaguardas para que a moderação de conteúdo não seja utilizada
para a censura, seja pelo governo ou pelas próprias plataformas.
Uma
das soluções aventadas pelo governo federal que gerou descontentamento
entre a sociedade civil foi a proposta de regular o tema via medida
provisória, que começa a valer imediatamente e depois é avaliada pelo
Congresso. A ideia do Planalto seria impor às plataformas uma espécie de “dever de cuidado”, ou seja, a
obrigação de impedir a disseminação de conteúdo que viole a Lei do Estado
Democrático de Direito — como o estímulo à violência para depor o governo ou a
incitação de animosidade entre as Forças Armadas e os Poderes.
Francisco,
entretanto, acha necessário primeiro estabelecer “parâmetros de liberdade de
expressão no Brasil que deixem essa tarefa [de moderação de conteúdo] mais
crível, mais fácil”. Ele teme que a obrigação de que as plataformas retirem
conteúdos a partir de suas próprias análises possa incorrer em abusos. “O que
seria incitação ao crime? O que seria incitar a animosidade dos poderes contra
as Forças Armadas? Se eu dissesse que as Forças Armadas têm que ser extintas,
porque eu não concordo com a existência delas, isso seria incitar animosidade?
Esse discurso seria um discurso legal? As plataformas interpretariam como? Me
parece que falta assentamento sobre o que é lícito ou ilícito”, afirmou.
De
acordo com ele, existem medidas anteriores que poderiam ser tomadas para
ampliar o debate. Ele defende que as plataformas sejam responsabilizadas de
forma sistêmica, o que significa fiscalizar como um todo seus comportamentos
para tornar a internet mais democrática e saudável.
A
possível MP do governo também incomodou o presidente da
Câmara, Arthur Lira (PP-AL), que indicou que pautará o Projeto de Lei
2630, conhecido como PL das Fake News. Orlando Silva (PCdoB), atual relator do
projeto na Câmara, acredita que o PL pode ser votado
ainda neste semestre.
O relator também tem se reunido com
integrantes do governo para discutir as propostas a serem
incluídas no projeto final.
O PL das Fake News está em
tramitação desde maio de 2020, quando foi apresentado pelo senador Alessandro
Vieira (CIDADANIA-SE) e relatado por Ângelo Coronel (PSD-BA), então presidente
da Comissão Parlamentar Mista de Inquérito (CPMI) das Fake News. Depois de
muita polêmica, discussão e emendas, o projeto que cria a Lei Brasileira de
Liberdade, Responsabilidade e Transparência na Internet foi aprovado pelo
Senado Federal em junho daquele ano e passou a tramitar na Câmara dos
Deputados.
Em
março de 2022, Orlando Silva apresentou uma nova versão do texto, mas teve suas
expectativas de aprovar o projeto antes das eleições presidenciais frustradas
quando a Câmara rejeitou o regime de
tramitação com urgência.
Como
parte da discussão, que tem envolvido todos os poderes da República, o Supremo
Tribunal Federal (STF) marcou para o dia 28
de março uma
audiência pública para debater duas ações que discutem a moderação de conteúdo
e a responsabilidade das plataformas em relação ao conteúdo postado por
usuários.
A
entrevista com o diretor do InternetLab explica o longo e
polêmico processo de tramitação do PL 2630 e traz sugestões do que mais
poderia ser feito.
LEIA
A ENTREVISTA:
·
Falando primeiro do PL 2630, que já está aprovado
pelo Senado, quais são os principais pontos e preocupações?
O
PL que foi aprovado pelo Senado tinha vários pontos de atenção para sociedade
civil, como um viés um tanto vigilantista, que aposta na rastreabilidade. A
rastreabilidade parte da ideia de que a gente precisa conseguir saber quem
começou a encaminhar determinado tipo de mensagem em um aplicativo de mensagem
privada. Como você não sabe qual conteúdo vai ser legal ou ilegal antes dele
ser produzido e julgado, o projeto basicamente ordenava que aplicativos
guardassem dados de todas as mensagens enviadas, o que se torna um enorme baú
do tesouro para agentes governamentais ou maliciosos que querem se aproveitar disso
pra bisbilhotar a vida das pessoas. Sem dúvida, era um projeto que estava longe
de responder aos principais dilemas e problemas sobre plataformas digitais, era
um projeto insuficiente e que colocava direitos fundamentais em risco.
Entretanto,
mesmo com pontos de atenção, o que ficou claro já no Senado e se expandiu na
Câmara é que o PL inaugurou um momento, um processo, que é o processo
brasileiro de discussão sobre regulação de plataformas digitais. Foi naquele
momento que o trem saiu da estação e a gente teve que discutir o assunto, a
pauta foi dominada por ele.
·
Agora cabe à Câmara retirar esta parte do PL, certo?
Me
parece que o deputado Orlando Silva apresentou uma solução e no debate da
Câmara isso já foi deixado de lado. Eu não considero mais que a
rastreabilidade, do jeito que ela estava antes, está sobre a mesa.
O
deputado criou dois tipos de regras: o primeiro é incidir diretamente sobre o
produto desses aplicativos para que esse produto não possibilite que uma pessoa
utilize criptografia, um mecanismo de sigilo, pra construir uma rede de difusão
em massa de mensagens. Os aplicativos de mensagem vão ter que entrar em códigos
de conduta pra limitar o número de encaminhamentos e limitar o tamanho dos
grupos. Basicamente, você está dizendo: ‘olha, se você quiser falar sem
criptografia no público, pode falar; mas se você quiser falar com criptografia,
você vai ter que falar no ambiente que não é um ambiente de difusão em massa’.
A
segunda coisa é uma proposta de parametrizar investigações no WhatsApp que
funcionaria como um grampo. Então se você tem uma suspeita de alguém, se você
acha que essa pessoa está trocando mensagens no WhatsApp com uma rede, e que
essas mensagens ou essa rede é suspeita, você pode ordenar a guarda dos
metadados e interações que a pessoa tem com a rede. É uma lógica de
investigação parecida com o que a gente tem hoje no Brasil: se você suspeita de
alguém, você quebra o sigilo daquela pessoa, você guarda dados sobre aquela
pessoa.
·
O PL 2630 já teve várias versões, todas repletas de
polêmica. Na sua avaliação, a versão aprovada pelo Senado conseguiu corrigir os
principais problemas? De que forma o projeto evoluiu?
Um
dos pontos que representou um avanço foi o de tentar colocar em foco questões
do comportamento de usuários nas plataformas e ser cuidadoso com o conteúdo.
Existiu uma maturação na discussão, de tentar aperfeiçoar determinadas
obrigações entre as plataformas digitais, como a ideia de que elas entreguem
relatórios de transparência e estabeleçam direitos mínimos aos usuários.
Isso
é importante, porque quando a gente faz uma regulação sobre conteúdo na
internet, independente de qual seja essa regulação, ela está trafegando num
oceano arriscado. O Senado foi importante para sensibilizar o parlamento sobre
o quão sério é ter esses debates.
·
No ano passado, o relator do PL na Câmara, Orlando
Silva, tentou aprovar o projeto, mas não conseguiu. O que você destaca sobre o
texto que o deputado apresentou?
O
texto do deputado traz reforço na parte de transparência e direitos dos usuários,
além de questões superinteressantes sobre a regulação do uso que o Estado faz
das redes sociais, porque a gente sabe que às vezes o Estado é o grande
responsável por censurar as pessoas ou mesmo por disseminar desinformação. Ele
também traz a regulação de comportamentos, dizendo que quando uma publicação é
publicidade, ela tem que ser tratada como publicidade, quando uma conta é
automatizada, ela tem que ser identificada como automatizada. São pontos
interessantes do projeto.
·
Algo te preocupa no texto?
Algumas
partes do texto são polêmicas e a gente tem que discutir mais, porque talvez
tragam riscos. Um exemplo é a discussão sobre a remuneração do jornalismo. É um
trecho que preocupa, porque a gente fica pensando se criar a obrigação dessa
forma vai favorecer de fato o jornalismo de interesse público, o pluralismo do
ecossistema de mídia no Brasil e tudo mais.
Outro
ponto é o tratamento das contas dos parlamentares. O deputado criou a ideia de
uma imunidade parlamentar aplicada nas redes sociais e eu acho que a gente tem
que debater esse problema de novo, porque a gente sabe que os parlamentares
muitas vezes utilizam suas contas para disseminar desinformação. Temos que
pensar: o que de fato a gente tem que proteger no discurso dos parlamentares?
Além
disso, tem uma série de coisas que não estão no texto, e eu até imagino que o
governo queira acrescentar, como a discussão sobre conteúdos nocivos, sobre
como a gente incentiva que as plataformas ajam mais sobre esse tipo de conteúdo
específico. Também é importante a discussão sobre a criação de uma autoridade
reguladora independente, dado que a gente não pode pedir que o Judiciário vire
o grande especialista em redes sociais. Para resumir, a gente tem coisas
interessantes, tem coisas controversas, e tem as coisas que não estão.
·
A discussão sobre o PL voltou à tona por conta da
movimentação do governo federal, o que levou o presidente da Câmara, Arthur
Lira, a afirmar que vai pautar o PL na Casa. Considerando agora as
sugestões do governo, como responsabilizar as plataformas e cobrar remoção
proativa de conteúdos que atentem contra o Estado de Direito, quais são os
principais pontos e preocupações?
Eu
não sei quais são as posições do governo. O governo não colocou nada público
sobre suas próprias posições. O que eu sei é o que tem saído na imprensa, mas o
que tem saído na imprensa é muito pouco do ponto de vista de qual é a proposta.
O que a gente tem na mesa são algumas declarações de ministros, que às vezes
são contraditórias entre si, e o texto do deputado Orlando Silva, que tem
problemas e soluções.
Acho
que é isso a resposta: eu não sei o que o governo quer. Quando a gente está
falando de regulação da internet, todo mundo tem boas cartas de intenções, todo
mundo mesmo, e eu realmente acredito nas boas intenções, mas o diabo mora nos
detalhes. A gente vai ter que ver no texto o que é bom e o que é ruim.
Acredito
que a participação social está no discurso e é compromisso do governo em várias
esferas, mas talvez o 8 de janeiro tenha colocado um elemento de urgência e
tensionado. Entendo que seja difícil chamar a sociedade civil pra discutir
quando o tempo é muito pequeno e quando o governo também tem que achar suas
próprias posições, mas eu espero que ele coloque na mesa a sua posição de uma
maneira construtiva, sabendo que talvez seja um ponto de partida para construir
uma posição mais ampla.
·
Um dos pontos que tem sido destacado pelas
autoridades públicas é a necessidade de responsabilização das plataformas. O
que exatamente isso significa?
No
Brasil, o Marco Civil da Internet, aprovado mais ou menos dez anos atrás, diz
que um provedor de aplicação, ou seja, um site ou plataforma, só pode ser
responsabilizado, no sentido de ter que indenizar alguém por um dano que foi
gerado por alguém que usa o seu serviço, se ele receber uma ordem judicial pra
remover aquele conteúdo e não quiser remover. Isso quer dizer que ele só pode
remover com ordem judicial? Não, o serviço é dele, ele não é obrigado a
carregar conteúdo de ninguém. Esse sistema foi pensado para responder à seguinte
questão: se as plataformas puderem ser responsabilizadas por um dano causado
pelos seus usuários, elas estariam incentivadas a monitorar e a julgar cada um
desses conteúdos previamente, pra não ter que responder na justiça depois. Elas
seriam incentivadas a isso. Com medo de um processo que depois elas tivessem
que responder, elas iam estar com a espada na cabeça pra decidir.
Quando
as pessoas querem responsabilizar as plataformas, a proposta passa a ser que
exista um dever legal da plataforma de fazer uma espécie de julgamento prévio
se aquele conteúdo é manifestamente ilegal ou não. Essa proposta existe na
Alemanha, por exemplo. Lá tem uma lista de crimes e a plataforma tem que
interpretar cada um dos conteúdos e fazer esse julgamento. É isso que está em
jogo. Talvez o melhor jeito de explicar é inverter a frase do Homem Aranha, em
que ele fala que ‘grandes poderes vem com grandes responsabilidades’. Eu acho
que é o contrário nesse caso: ‘grandes responsabilidades vem com grandes
poderes’. Se a gente diz que as plataformas vão ser responsáveis por isso, a
gente vai estar dando indiretamente o poder a elas de fazer essa interpretação.
Também
acho que é necessário entender o que está por trás dessa posição do governo e
do ministro Roberto Barroso, que falou sobre isso em um discurso na Unesco. Eu
não acho que eles estejam querendo por princípio que as plataformas decidam o
que é legal ou ilegal. Eu acho que, inclusive, se você perguntar, eles vão
dizer que isso não seria o ideal, mas existe uma pressão para que determinados
tipos de conteúdo, que eles lêem como conteúdo criminoso e nocivo, sejam mais
removidos, que as plataformas tomem mais ação proativa em relação a
determinados tipos de conteúdo. O judiciário às vezes é moroso, tem custo.
Mas
não é só mudando o regime, dando esse poder para as plataformas, que você vai
incentivá-las a remover o que você quer que elas removam.
·
Como essa decisão sobre os conteúdos que são
removidos pode ser regulada? Como ela pode ser feita sem garantir todo esse
poder decisório às plataformas?
Precisamos
ter parâmetros de liberdade de expressão no Brasil que deixem essa tarefa mais
crível, mais fácil. Parâmetros que todo mundo tenha acordo do que está dentro e
do que que está fora, do legal e do ilegal. O grande problema na minha opinião
é que esses parâmetros não existem ou existem de forma muito fraca, em especial
quando a gente está falando de determinados crimes. Um exemplo, em casos de
crimes contra a honra, o que é difamação e o que é crítica? A gente vê vários
exemplos de processos, muitas vezes movidos por pessoas poderosas, com base
nessa ideia de difamação ou de ofensa à imagem, e essas pessoas ganham. Ganham
e censuram jornalistas, censuram ativistas, censuram pessoas que estão fazendo
críticas legítimas. Isso me leva a crer que o nosso sistema de dizer o que é
lícito ou ilícito do ponto de vista de discurso e de liberdade de expressão é
muito ruim, porque ele fica muito refém de quem aciona o judiciário e consegue
casuisticamente mover ele a seu favor. O que seria incitação ao crime? O que
seria incitar a animosidade dos poderes contra as Forças Armadas? Se eu
dissesse que as Forças Armadas têm que ser extintas, porque eu não concordo com
a existência delas, isso seria incitar animosidade? Esse discurso seria um discurso
legal? As plataformas interpretariam como? Me parece que a falta de
assentamento sobre o que é lícito ou ilícito, combinada com essa transferência
de poder, é arriscada.
Talvez
melhorar esse sistema seja uma tarefa de alguns anos, mas dá para fazer coisas
mais imediatas. A Europa tem dado alguns passos interessantes, como o de olhar
para a atividade das plataformas de um ponto de vista menos casuístico e mais
sistêmico. A ideia é criar um sistema de acompanhamento, fiscalização e
regulação que não vai olhar para a responsabilização de cada conteúdo
específico, mas sim para o quanto a plataforma está levando a cabo aquele
determinado compromisso. É um sistema que incentiva exatamente o que a
gente quer que seja incentivado, que é que esses sistemas localizem mais o
conteúdo nocivo e que haja investimento compatível, ou seja, que a plataforma
invista no Brasil como investe nos Estados Unidos.
·
O Brasil foi um pioneiro durante a criação do Marco
Civil da Internet, mas os tempos mudaram. Existem medidas do Marco Civil que
envelheceram e que hoje não fazem muito sentido, medidas que deveriam ser
repensadas?
É
razoável, depois de dez anos de uma lei, se perguntar isso. Tem coisa que
envelheceu, tem coisa que não envelheceu, mas eu não concordo com a visão de
que pra você fazer coisas novas em regulação de plataformas você tem que rever
o Marco Civil. O Marco Civil é um piso, tem pontos muito basilares.
·
Desde a aprovação do projeto no Senado, as big techs
fizeram uma grande campanha alegando que o projeto é uma “potencial ameaça para
a Internet livre, democrática e aberta”. O que está em jogo para elas?
Muita
coisa. Estão em jogo os custos que elas vão ter e determinadas partes do modelo
de negócio. Existe um mundo de negócio envolvido, e talvez as plataformas menores
estejam ainda mais desesperadas, porque podem ter mais dificuldade de se
adequar a uma nova regulação. Mas não adianta só elas dizerem que são contra o
PL 2630, elas precisam dizer o que elas são a favor. Qual é a proposta? A gente
precisa de uma discussão em que todo mundo traga alguma coisa pra mesa.
·
Muito se falou sobre a atuação do Tribunal Superior
Eleitoral durante as últimas eleições presidenciais. Um dos pontos levantados
foi que o TSE teve que agir mais para conter a desinformação visto que não
existia um aparato legal aprovado pelo Congresso. Pensando nas eleições
futuras, o PL pode resolver esses problemas?
O
que ficou claro é que os acordos de cooperação que o TSE firmou dependiam das
políticas das plataformas e da capacidade delas fazerem a fiscalização em
relação às próprias políticas, o que passa pela discussão sobre o projeto de
lei. Quais são as políticas? A regulação tem que decidir sobre essas políticas?
Acho
que na série eleitoral tem dois pontos de atenção. Primeiro é que a gente vai
ter que fazer um balanço sobre a resolução que o
TSE editou no último momento da eleição e que garantiu mais poderes de remoção
de conteúdo para discutir as eleições de 2024. Além disso, o Senado Federal tem
na sua agenda de tramitação deste ano um projeto de Novo Código Eleitoral, e
esse novo código trabalha com redes sociais, traz várias outras questões, traz
um monte de regras novas pra eleição, e deixa o TSE um pouco mais amarrado pra
editar regras novas. Então não é só o PL 2630, a gente vai ter que debater
bastante esse Novo Código Eleitoral.
·
Para finalizar e olhar para frente, o que você
espera da versão final do PL, que deve ser apresentada e apreciada nos próximos
meses?
Regular
as plataformas e garantir maior proteção a direitos fundamentais é uma tarefa
da nossa geração, então eu espero que a gente continue esse debate, achando os
consensos. Eu espero de verdade que além do governo trazer suas posições, a
gente consiga ter um espaço de debate na sociedade civil e na academia. E que
nesse ano a gente consiga avançar com alguma inovação legislativa, porque já
estamos há três anos nisso.
Fonte:
Por Laura Scofield, Agência Pública
Nenhum comentário:
Postar um comentário