Como
enquadrar as big techs – sem tiros no pé
Para
analisar a tese de repercussão geral fixada pelo Supremo Tribunal Federal (STF)
no último dia 26 de junho, ao decidir sobre a constitucionalidade ou não do
artigo 19, do Marco Civil da Internet (MCI), sobre responsabilização de
plataformas que exploram serviços na Internet por danos decorrentes de
conteúdos postados por terceiros, vou partir da pertinente perspectiva manifestada pela ministra Cármen
Lúcia na sessão de julgamento que ocorreu no dia 25 de junho, com o seguinte
teor:
“não
há nenhuma divergência no que se refere à importância, à gravidade e
complexidade do tema que estamos a discutir, um tema que diz respeito à
liberdade de expressão e à censura, (…) eu vivo muito preocupada, eu diria
quase aterrorizada, com a questão da censura nos últimos tempos e estou dizendo
no Brasil. Censuram-se livros, censuram-se publicações que são feitas dizendo
respeito, por exemplo, a ganhos de servidores públicos, que têm de ser públicos
por determinação legal… faz-se censura de espetáculos artísticos. Isto é
censura inconstitucional vedada. Se for por ordem judicial, pior ainda.
Portanto, a censura no Brasil é uma questão que não acabou quando acabou a
ditadura. Continua prevalecendo e o tempo todo precisamos ficar atentos para
não se restabelecer nenhuma forma de censura, nem prévia e nem nenhuma, até
porque a Constituição fala que não é permitida a censura e não diz que é só a
prévia. (…) E por isso mesmo é que este tema ganha um relevo maior … isto tem
um apelo enorme para todas as democracias e para as liberdades, muito mais para
nós brasileiros que vivemos nos tempos de hoje e nas circunstâncias de hoje …”
.
·
O artigo 19 do MCI e a censura
Assim,
para entendermos as possíveis repercussões da decisão do STF, o foco principal
deve a defesa da liberdade de expressão e o impedimento à censura, inclusive e
especialmente porque o art. 19 deixou expresso que foi esta a preocupação da
sociedade, que participou ampla e ativamente da construção do MCI, apoiado
no Decálogo de Princípios de Governança da Internet, editado
em 2009,
num contexto multissetorial do qual participaram representantes do governo,
academia, empresas e terceiro setor, promovido pelo Comitê Gestor da Internet
no Brasil. Entre os princípios do decálogo está a inimputabilidade das redes,
indicando que o “combate a ilícitos na rede deve atingir os responsáveis finais
e não os meios de acesso e transporte, sempre preservando os princípios maiores
de defesa da liberdade, da privacidade e do respeito aos direitos humanos”. Foi
esta, então, a redação do art. 19 inspirado nesse princípio: “Com o intuito de
assegurar a liberdade de expressão e impedir a censura, o provedor de
aplicações de internet somente poderá ser responsabilizado civilmente por danos
decorrentes de conteúdo gerado por terceiros se, após ordem judicial
específica, não tomar as providências para, no âmbito e nos limites técnicos do
seu serviço e dentro do prazo assinalado, tornar indisponível o conteúdo
apontado como infringente, ressalvadas as disposições legais em contrário”. E
este dispositivo não pode ser lido como salvo conduto para que as plataformas
não respondam por atos próprios, pois o mesmo MCI traz dispositivo prevendo a
responsabilização dos agentes por suas atividades nos termos da lei.
Nessa
direção, a bandeira levantada por muitos como justificativa para flexibilizar o
regime de responsabilidade do MCI, no sentido de que a lei estaria defasada,
revela-se absolutamente inconsistente.
Primeiro
porque leis principiológicas não envelhecem. Fosse assim, nossa Constituição
que é de 1988, nosso Código Penal que é de 1940, a Lei Eleitoral que é de 1992,
e assim por diante, também estariam defasados pelo passar dos tempos e das
conjunturas. E segundo porque, como asseverou a ministra Cármen Lúcia, os
ataques às liberdades e os arroubos da censura continuam a ameaçar as nossas
instituições democráticas, de forma acelerada, especialmente a partir de 2014,
para o que a atuação das plataformas tem desempenhado papel bastante relevante
no processo de enfraquecimento das instituições democráticas do nosso país, bem
como no recuo de garantias civilizatórias e direitos fundamentais conquistados
ao longo do período de redemocratização com muito esforço.
A
expansão acelerada, no contexto neoliberal, do poder de mercado das plataformas
estadunidenses no Brasil e no mundo, assim como a crescente exploração dos
serviços que prestam na Internet, apoiados em novas tecnologias que implicam na
coleta e tratamento massivo e arbitrário de dados pessoais e dados públicos,
voltados para a vigilância, com vistas a alimentar seus modelos de negócio
baseados principalmente em publicidade e propaganda, como tão bem delineado nas
obras de Shoshana Zubof, Evgueny Morozov e Jonathan Crary, entre outros, são
elementos que não poderiam ter sido negligenciados pela decisão do STF. Apesar
de as manifestações de todos os onze ministros que votaram pela
constitucionalidade parcial do art. 19 terem referências ao poder das
plataformas e os efeitos deletérios de suas práticas algorítmicas, mesmo as
daqueles que votaram pela constitucionalidade integral do art. 19, com todo o
respeito, entendo que a decisão não deu a devida importância para as
repercussões que pode ter no quadro das atuais disputas geopolíticas e tem o
potencial de causar efeito contrário ao desejado.
·
Tiro pela culatra 1
Isto
porque nos itens 2 a 3.2 da tese de repercussão geral está dito o
seguinte:
“2.
Enquanto não sobrevier nova legislação, o art. 19 do MCI deve ser interpretado
de forma que os provedores de aplicação de internet estão sujeitos à
responsabilização civil, ressalvada a aplicação das disposições específicas da
legislação eleitoral e os atos normativos expedidos pelo TSE.
- O provedor de
aplicações de internet será responsabilizado civilmente, nos termos do
art. 21 do MCI, pelos danos decorrentes de conteúdos gerados por terceiros
em casos de crime ou atos ilícitos, sem prejuízo do dever de remoção do
conteúdo. Aplica-se a mesma regra nos casos de contas denunciadas como
inautênticas. 3.1. Nas hipóteses de crime contra a honra aplica-se o art.
19 do MCI, sem prejuízo da possibilidade de remoção por notificação
extrajudicial. 3.2. Em se tratando de sucessivas replicações do fato
ofensivo já reconhecido por decisão judicial, todos os provedores de redes
sociais deverão remover as publicações com idênticos conteúdos,
independentemente de novas decisões judiciais, a partir de notificação
judicial ou extrajudicial.
A
afirmação de que a eficácia do art. 19 está preservada quando se tratar de
crimes contra a honra como regra, não me deixa tranquila quando no item 3.1. a
plataforma fica autorizada a promover a remoção do conteúdo mediante mera
notificação extrajudicial (notice and take down), o que pode ser interpretado
de modo a que se esteja viabilizando que a plataforma, visando reduzir custos
de moderação e de responsabilização, adote como padrão a remoção preventiva do
conteúdo, como elas já estão ameaçando. Especialmente porque, no item 5.5 da
tese, inserido na parte que faz menção ao dever de cuidado em casos de
circulação massiva de conteúdos ilícitos graves o STF afirma que:
“5.5.
Nas hipóteses previstas neste item, o responsável pela publicação do conteúdo
removido pelo provedor de aplicações de internet poderá requerer judicialmente
o seu restabelecimento, mediante demonstração da ausência de ilicitude. Ainda
que o conteúdo seja restaurado por ordem judicial, não haverá imposição de
indenização ao provedor”.
Ou
seja, aquele que tiver o conteúdo removido indevidamente pela plataforma, além
de ter o ônus de recorrer ao Poder Judiciário, caso tenha o pedido de
restabelecimento do conteúdo atendido, não terá o direito de ser indenizado, o
que funciona como verdadeiro estímulo para derrubadas arbitrárias e feitas ao
critério exclusivo das big techs, contrariando o preceito básico de quem
exorbita no exercício dos direitos pratica ilícito, ficando obrigado a
indenizar, como estabelece nosso Código Civil. Se um dos princípios utilizados
pelo STF para a fixação da tese foi o respeito ao binômio
liberdade/responsabilidade, o certo é que o tribunal no item 5.5 está
conferindo margem amplíssima de poder às plataformas para remoção de conteúdos,
sem lhes impor a devida e correspondente responsabilidade por derrubadas
consideradas ilegais pelo Poder Judiciário. Ainda considerando o cenário de
violações reiteradas de censura prévia pelas plataformas, que moderam seus
conteúdos de acordo com seus interesses privados e comerciais, descomprometidas
com o interesse público dos países onde atuam, teria sido fundamental que o STF
tivesse levado em conta o alinhamento ideológico que mantêm com as forças de
direita. Há inúmeras pesquisas
demonstrando que as plataformas já interferem no tráfego de informações,
conferindo privilegio e maior alcance a conteúdos desinformativos, racistas,
criminosos e discursos de ódio e, especialmente, aos conteúdos financiados e
impulsionados pelas forças de direita para desestabilizar as instituições e a
democracia, como é o caso dos canais do Brasil Paralelo, Jovem Pan entre
outros, que servem de material a ser decupado e espalhado vastamente por
diversas aplicações como TikTok, Instagram, Facebook, WhatsApp e Telegram.
Lamento,
então, o fato de que, apesar de os ministros Barroso e Flávio Dino terem
cogitado de manter a eficácia do art. 19 não só para os crimes contra a honra –
injúria, calúnia e difamação –, mas também para conteúdos jornalísticos, esta
hipótese não tenha sido incluída no item 3.1 e que se tenha mantido a previsão
de possibilidade de derrubada de conteúdo por mera notificação extrajudicial. As
disputas geopolíticas em curso, com avanços graves da extrema direita em
diversos países da Europa, América Latina e nos EUA, dando suporte a partidos
fascistas, como ocorreu na Itália e Alemanha, e com a recente eleição de Donald
Trump, têm contado com o protagonismo das principais plataformas, que não por
acaso são estadunidenses, indicam que a decisão do STF pode funcionar como um
tiro pela culatra.
·
Plataformas sujeitas à eficácia do art. 19
Outro
ponto a ser destacado quanto à decisão sobre a incidência do art. 19 é o item 6
da tese que dispõe: “6. Aplica-se o art. 19 do MCI ao (a) provedor de serviços
de e-mail; (b) provedor de aplicações cuja finalidade primordial seja a
realização de reuniões fechadas por vídeo ou voz; (c) provedor de serviços de
mensageria instantânea (também chamadas de provedores de serviços de mensageria
privada), exclusivamente no que diz respeito às comunicações interpessoais,
resguardadas pelo sigilo das comunicações (art. 5º, inciso XII, da CF/88)”. Interpretando
o item 6 com o item 3.1, teria sido necessário que a tese deixasse claro o
seguinte: se o art. 19 só se aplica para provedores de e-mails, provedores de
serviço para realização de reuniões fechadas e provedores de mensageria
privada, com a advertência de que se respeite o direito constitucional do
sigilo das comunicações, cabe perguntar: qual a efetividade desta disposição?
Seria para o caso de grupos abertos de discussão como há no WhatsApp e
Telegram?
Os três
tipos de serviços referidos no item 6 implicam em tráfego de conteúdos
restritos aos participantes, aos quais nem os provedores e nem o público podem
ter acesso, inclusive por força do que determina o MCI quando trata da proteção
da privacidade e dos dados pessoais e quando, ao tratar dos direitos dos
usuários no art. 7º, assegura a “inviolabilidade da intimidade e da vida
privada, sua proteção e indenização pelo dano material ou moral decorrente de
sua violação; a inviolabilidade e sigilo do fluxo de suas comunicações pela
internet, salvo por ordem judicial, na forma da lei”; bem como a
“inviolabilidade e sigilo de suas comunicações privadas armazenadas, salvo por
ordem judicial”. Sendo assim, nas hipóteses previstas no item 6 da tese não há
que se falar em remoção de conteúdos seja por ação proativa da plataforma ou
por ordem judicial. De acordo com o documento publicado pelo STF
informando a sociedade sobre a tese, a explicação é a seguinte:
“Em
duas hipóteses específicas, as plataformas podem ser responsabilizadas mesmo
sem ordem judicial ou notificação privada: (a) em anúncios ou impulsionamento
pago de conteúdos, já que nesses casos a plataforma aprova a publicidade; e (b)
quando for detectado o uso de redes artificiais de distribuição ilícitas usando
robôs. Nesses casos, há uma presunção de que a plataforma tinha conhecimento da
ilicitude e ela somente poderá afastar sua responsabilidade se provar que agiu
em tempo razoável e com diligência para remover o conteúdo”.
Entretanto,
o item 4 da tese, já atribui a presunção de responsabilidade para:
(a)
anúncios e impulsionamentos pagos; ou (b) rede artificial de distribuição
(chatbot ou robôs). Nestas hipóteses, a responsabilização poderá se dar
independentemente de notificação. Os provedores ficarão excluídos de
responsabilidade se comprovarem que atuaram diligentemente e em tempo razoável
para tornar indisponível o conteúdo”. Nessa linha, a previsão de aplicação do
art. 19 para provedores de e-mail, suporte para reuniões online e mensageria
privada é desnecessária e, pior, é inconveniente, pois abre uma via para que se
justifique algum nível de monitoramento, o que contraria os direitos à
intimidade e privacidade. O uso de robôs para distribuição de conteúdos a
princípio não deveria ser visto como ilegal. O que o STF quis dizer com “redes
artificiais de distribuição ilícitas usando robôs.
·
O Poder Legislativo, o STF e as leis brasileiras
Analisando
os demais itens da tese fixada pelo STF, para além da eficácia residual
reconhecida para o art. 19, a Corte avançou em outros aspectos importantes.
Ampliou o rol de exceções expressas no art. 21 da lei, que responsabiliza as
plataformas por não atenderem pedidos de derrubada de conteúdos recebidos por
notificação extrajudicial, deixando claro que as hipóteses ali elencadas são
taxativas e não exemplificativas. São elas: “(a) condutas e atos
antidemocráticos que se amoldem aos tipos previstos nos artigos 296, parágrafo
único, 359-L, 359- M, 359-N, 359-P e 359-R do Código Penal; (b) crimes de
terrorismo ou preparatórios de terrorismo, tipificados pela Lei nº 13.260/2016;
(c) crimes de induzimento, instigação ou auxílio a suicídio ou a automutilação,
nos termos do art. 122 do Código Penal; (d) incitação à discriminação em razão
de raça, cor, etnia, religião, procedência nacional, sexualidade ou identidade
de gênero (condutas homofóbicas e transfóbicas), passível de enquadramento nos
arts. 20, 20-A, 20-B e 20-C da Lei nº 7.716, de 1989; (e) crimes praticados
contra a mulher em razão da condição do sexo feminino, inclusive conteúdos que
propagam ódio ou aversão às mulheres (Lei nº 11.340/06; Lei nº 10.446/02; Lei
nº 14.192/21; CP, art. 141, § 3º; art. 146-A; art. 147, § 1º; art. 147-A; e
art. 147-B do CP); (f) crimes sexuais contra pessoas vulneráveis, pornografia
infantil e crimes graves contra crianças e adolescentes, nos termos dos arts.
217-A, 218, 218-A, 218-B, 218-C, do Código Penal e dos arts. 240, 241-A, 241-C,
241-D do Estatuto da Criança e do Adolescente; g) tráfico de pessoas (CP, art.
149-A)”.
Diante
desta disposição cabe a pergunta: considerando o que está previsto nos incs. V
e VI, do art. 3º, do Marco Civil da Internet, estabelecendo a obrigação de
“preservação da estabilidade, segurança e funcionalidade da rede, por meio de
medidas técnicas compatíveis com os padrões internacionais e pelo estímulo ao
uso de boas práticas” e a “responsabilização dos agentes de acordo com suas
atividades, nos termos da lei”, todas as hipóteses incluídas no item 5 da tese
já não obrigam que as plataformas cumpram o dever de garantir segurança nos
seus ambientes, removendo proativamente conteúdos criminosos, nos termos do que
está disposto no Código de Proteção de Defesa do Consumidor (CDC)?
Para
mim, a única resposta a esta pergunta é sim. E para os ministros André
Mendonça, Kassio Nunes Marques e Edson Fachin também, como é possível concluir
de seus votos divergentes. Tanto é assim que já existem centenas de decisões
judiciais responsabilizando as plataformas com base no CDC e outras leis. Nesse
sentido, merece destaque a atuação do Tribunal Superior Eleitoral (TSE) que,
com base na Lei Eleitoral, vem editando resoluções estabelecendo hipóteses de
responsabilidade no caso de descumprimento das normas editadas pelo Tribunal.
Ou ainda, as decisões do STF, que, em 2022, exigiu do Telegram apresentação de
representação no Brasil e em 2023 determinou o bloqueio do X/Twitter. Mas,
apesar de entender que o regime original de responsabilidade do MCI, com base
nos arts. 3º, inc. VI; 19 e 21, aplicado junto com o arcabouço legal
brasileiro, já funcionam como ferramentas poderosas para responsabilizar as
plataformas por seus atos próprios e que elas não estão imunes à indenizar
pelos danos que causem, este fato não torna desnecessária uma lei que venha, de
forma específica e com base em diretrizes técnicas, regulamentar a atividade de
moderação de conteúdos das plataformas, como o PL 2630/2020, que se propunha a
dispor sobre Liberdade de expressão, Transparência e Responsabilidade na
Internet, o que representaria um passo seguinte aos princípios estabelecidos
com o MCI. Porém, diante da resistência das plataformas em se submeterem ao
poder regulatório e normativo do país, previstos de forma expressa na Constituição
Federal (CF), no art. 174, inserido no capítulo sobre atividade econômica, que
contou com o apoio de Arthur Lira, então presidente da Câmara Federal, a
conjuntura pesou para que o STF ocupasse um espaço que deveria ser do Poder
Legislativo.
·
Os regimes de responsabilidade estabelecidos com a tese
do STF
De
forma resumida, então, podemos concluir que a partir da decisão do STF
inaugura-se um novo regime de responsabilidade estruturado sobre as seguintes
hipóteses:
a) As
plataformas podem ser responsabilizadas civilmente caso não removam conteúdos
manifestamente ilícitos após notificação extrajudicial. Isso se aplica a
conteúdos como: • Pornografia infantil; • Indução, instigação ou auxílio a
suicídio ou automutilação; • Tráfico de pessoas; • Atos de terrorismo; •
Apologia à abolição violenta do Estado Democrático de Direito ou golpe de
Estado; • Discurso de ódio, racismo ou outros conteúdos gravemente nocivos.
b) As
plataformas têm o dever de agir proativamente ou após notificação
extrajudicial, sem depender de decisão judicial, desde que o conteúdo seja
objetivamente ilícito. É o que consta do item 5 na parte intitulada Dever de
Cuidado, para evitar o que se denominou de falha sistêmica (item 5.2), que
ocorre quando o “provedor de aplicações de internet, deixar de adotar adequadas
medidas de prevenção ou remoção dos conteúdos ilícitos”, tais como: • Crimes
contra crianças e adolescentes; • Instigação ao suicídio; • Terrorismo; •
Crimes contra o Estado Democrático de Direito.
c)
Provedores que atuam como intermediários neutros, sem impulsionamento ou
curadoria ativa de conteúdo (como provedores de infraestrutura), permanecem
protegidos pelo artigo 19, sendo responsabilizados apenas em caso de
descumprimento de ordem judicial.
d)
Conforme o item 4 da tese, “fica estabelecida a presunção de responsabilidade
dos provedores em caso de conteúdos ilícitos quando se tratar de (a) anúncios e
impulsionamentos pagos; ou (b) rede artificial de distribuição (chatbot ou
robôs). Nestas hipóteses, a responsabilização poderá se dar independentemente
de notificação. Os provedores ficarão excluídos de responsabilidade se
comprovarem que atuaram diligentemente e em tempo razoável para tornar
indisponível o conteúdo.
e)
Marketplaces passam a responder solidariamente com os fornecedores que
comercializam serviços e produtos em suas de acordo com o CDC, sem incidir a
responsabilidade objetiva.
<><>
Tiro pela culatra 2
Agora,
tendo o STF preenchido essa lacuna, extrapolando ou não suas atribuições
constitucionais, como resposta aos riscos que estamos correndo decorrentes do
uso indevido das aplicações mantidas pelas bigtechs, como já ocorreu em 2018,
2020 e 2022, de contaminação do próximo processo eleitoral de 2026, bateu o
desespero nas plataformas. Matéria publicada pela Folha de São
Paulo dia 27 de junho informa
que agora as plataformas vão correr atrás do Congresso para “legislar sobre o
assunto rapidamente. Na interpretação das empresas, se o Congresso aprovar uma
lei, ela vai se sobrepor à decisão do STF”. É possível que sim, caso o
Legislativo não repita restrições de responsabilidade já reconhecidas como
inconstitucionais pela Corte na tese editada agora. Os pontos passíveis a
partir de agora de serem substituídos são aqueles que tratam de obrigações adicionais,
que já encontram respaldo no CDC. Aliás, o item 13 da tese do STF, já endereça
apelo ao Congresso Nacional “para que seja elaborada legislação capaz de sanar
as deficiências do atual regime quanto à proteção de direitos fundamentais”.
·
A tese do STF e os direitos do consumidor
O STF
também fixou obrigações adicionais de caráter instrumental baseadas no CDC e no
texto do PL 2630/2020. São elas:
Marketplaces
- Os provedores de
aplicações de internet que funcionarem como marketplaces respondem
civilmente de acordo com o Código de Defesa do Consumidor (Lei
nº8.078/90). Deveres adicionais
- Os provedores de
aplicações de internet deverão editar autorregulação que abranja,
necessariamente, sistema de notificações, devido processo e relatórios
anuais de transparência em relação a notificações extrajudiciais, anúncios
e impulsionamentos.
- Deverão,
igualmente, disponibilizar a usuários e a não usuários canais específicos
de atendimento, preferencialmente eletrônicos, que sejam acessíveis e
amplamente divulgados nas respectivas plataformas de maneira permanente.
- Tais regras
deverão ser publicadas e revisadas periodicamente, de forma transparente e
acessível ao público.
- Os provedores de
aplicações de internet com atuação no Brasil devem constituir e manter
sede e representante no país, cuja identificação e informações para
contato deverão ser disponibilizadas e estar facilmente acessíveis nos
respectivos sítios. Essa representação deve conferir ao representante,
necessariamente pessoa jurídica com sede no país, plenos poderes para (a)
responder perante as esferas administrativa e judicial; (b) prestar às
autoridades competentes informações relativas ao funcionamento do provedor,
às regras e aos procedimentos utilizados para moderação de conteúdo e para
gestão das reclamações pelos sistemas internos; aos relatórios de
transparência, monitoramento e gestão dos riscos sistêmicos; às regras
para o perfilamento de usuários (quando for o caso), a veiculação de
publicidade e o impulsionamento remunerado de conteúdos; (c) cumprir as
determinações judiciais; e (d) responder e cumprir eventuais penalizações,
multas e afetações financeiras em que o representado incorrer, especialmente
por descumprimento de obrigações legais e judiciais. Natureza da
responsabilidade
- Não haverá
responsabilidade objetiva na aplicação da tese aqui enunciada.
- Apela-se ao
Congresso Nacional para que seja elaborada legislação capaz de sanar as
deficiências do atual regime quanto à proteção de direitos fundamentais.
Modulação dos efeitos temporais
- Para preservar a
segurança jurídica, ficam modulados os efeitos da presente decisão, que
somente se aplicará prospectivamente, ressalvadas decisões transitadas em
julgado.
Vejam
que em vários dos itens transcritos acima foi estabelecida uma série de
obrigações sobre autorregulação, elaboração de relatórios anuais de
transparência em relação a notificações extrajudiciais, anúncios e
impulsionamentos, manutenção de sede e representação no Brasil.
·
O que a tese deixou em aberto?
Mas
quem vai supervisionar o cumprimento dessas obrigações que, a rigor, de acordo
com o CDC, já existem e poderiam estar sendo exigidas pela Secretaria Nacional
do Ministério da Justiça, que há anos vem agindo de forma bastante complacente
com as plataformas? O STF não traz uma indicação na tese que fixou, a despeito
de durante o julgamento algumas alternativas tenham sido aventadas como a
Autoridade Nacional de Proteção de Dados e a Procuradoria Geral da República. Diante
da indefinição de um organismo de supervisão, caberiam apelos do STF, assim
como fez com o Legislativo, dirigidos às Secretarias Nacional do Consumidor e
Direitos Digitais do Ministério da Justiça e Secretaria de Políticas Digitais da
Secretaria de Comunicações da Presidência da República, para que cumprissem
suas atribuições claríssimas expressas em Decretos Presidenciais. E já que
resolveu regular, poderia ter imposto parâmetros definindo assimetrias quanto
às obrigações adicionais que impôs, com vistas a não atingir negativamente
pequenas e médias empresas e a não contribuir para o poder de mercado das
grandes big techs. Ainda com relação às obrigações adicionais, poderia ter
estabelecido a obrigação de rotulagem para conteúdos sintéticos, resultado de
manipulação por inteligência artificial, assim como fez o TSE, na Resolução
23.732/2024, a fim de capacitar os usuários para terem senso crítico diante da
massa informacional caótica a que estamos submetidos.
·
O que podemos esperar da decisão do TSE?
Apesar
de entender o contexto e de compartilhar o sentimento de urgência e necessidade
de se colocar freios ao poder enorme das big techs de interferirem
negativamente no processo eleitoral de 2026, com a perspectiva real de retomada
pela extrema direita da Presidência e da ampliação do número de parlamentares
de direita na Câmara e, especialmente no Senado, não acredito que resposta
eficaz ao enorme poder de controle sobre o fluxo de informações detido pelas
plataformas hoje vá se dar pela via regulatória; muito menos vinda de fonte tão
pouco ortodoxa como é o caso da tese fixada pelo STF. Precisamos que o atual
Governo atue de forma política, exercendo por meio das autoridades competentes
o enquadramento dessas empresas às leis do país, deixando de negligenciar sobre
nossa soberania e evitando as práticas ilegais que elas vêm promovendo há anos,
dominando os mercados e criando uma dependência enorme de cidadãos e governos
de suas aplicações. Ou seja, quem vai fazer valer a tese do STF?
Receio
que a decisão do STF não traga os resultados esperados e possa até reverter em
resultado oposto ao que inspirou os ministros cujos votos foram vencedores e
que as big techs, agora autorizadas a derrubar por iniciativa própria o que
julgarem o que é inequivocamente ilícito, conteúdos gravemente nocivos e
ameaças ao Estado democrático de direito acirrem seus mecanismos de censura
prévia contra postagens e canais progressistas. Quem viver verá!
Fonte: Por
Flávia Lefèvre, em Outras Palavras

Nenhum comentário:
Postar um comentário