Internet
é principal meio de acesso à informação no Brasil, mas deepfakes e desconfiança
ameaçam o ambiente
Nos
últimos anos, o número de usuários conectados à internet no Brasil cresceu
significativamente, e esse cenário tem transformado a forma como os brasileiros
se informam. Entre aqueles que fazem uso regular do mundo digital, 72% das
pessoas com 16 anos ou mais acessam redes sociais diariamente como fonte de
informação.
O dado
é da pesquisa Painel TIC – Integridade da Informação, lançada pelo Núcleo de
Informação e Coordenação do Ponto BR (NIC.br) e pelo Comitê Gestor da Internet
no Brasil (CGI.br) no início deste mês. O estudo entrevistou 5.250 usuários de
internet com 16 anos ou mais e foi conduzido pelo Centro Regional de Estudos
para o Desenvolvimento da Sociedade da Informação (Cetic.br).
Além de
confirmar que as plataformas digitais se consolidaram como principal fonte de
informação diária para milhões de usuários, a pesquisa traz outros números
relevantes:
• Embora redes sociais sejam usadas por
72% dos entrevistados para acessar informações diariamente, o formato do
conteúdo varia: vídeos curtos lideram (53%), seguidos por sites ou aplicativos
de vídeo (50%) e feeds de notícias (46%)
• Aplicativos de mensagem são fonte diária
de informação para 60% dos usuários
• Rádio e televisão ainda alcançam 58%,
mas já ficaram para trás das plataformas digitais
• Revistas digitais ou impressas aparecem
em último lugar, com 34%
<><>
A encruzilhada da confiança
Com
plataformas digitais e aplicativos de mensagem liderando como fonte diária de
informação, algumas questões precisam ser respondidas: qual a qualidade do que
está sendo consumido e será que os usuários sabem identificar conteúdos
desinformativos?
A
resposta é complexa. A pesquisa revela que muita gente desconfia “sempre” ou
“na maioria das vezes” das informações que recebe. Mas essa desconfiança não é
distribuída igualmente: 48% dos usuários desconfiam de veículos de notícias
tradicionais, 47% de canais em aplicativos de vídeo ou streaming e 43% de
figuras públicas nas redes sociais.
<><>
A mídia tradicional na mira da desconfiança
Na
prática, a mídia tradicional tem sido mais alvo de desconfiança do que os
influenciadores digitais, e o perfil de quem desconfia — ou não — varia. Homens
(52%) e pessoas com apenas o ensino fundamental completo (59%) lideram a
desconfiança em relação a veículos jornalísticos. Já os influenciadores
digitais são vistos com mais ceticismo por usuários com 60 anos ou mais (51%).
Essa
desconfiança também parece guiar as escolhas de consumo. Cerca de 65% dos
usuários acessam diariamente notícias de veículos jornalísticos; entre os
jovens de 16 a 24 anos, o percentual cai para 46%.
Para
Fabio Senne, coordenador-geral de pesquisas do Cetic.br, os dados se alinham a
uma tendência já observada em outras pesquisas.
“Há uma
queda no engajamento com mídias tradicionais e redução no interesse pelo
consumo de notícias, sobretudo entre os mais jovens. Esse é um ponto de atenção
para as políticas públicas no campo”, afirma em comunicado à imprensa.
A
desconfiança caminha lado a lado com o desinteresse pela verificação. Cerca de
34% dos usuários concordam que “não vale a pena pesquisar se as informações
recebidas são verdadeiras ou falsas”, e 30% simplesmente não se interessam por
esse tipo de checagem.
O
desinteresse pela verificação afeta mais homens, jovens, pessoas das classes C
e D/E e com baixa escolaridade. O dado revela que a dificuldade em avaliar
informações é um fenômeno atravessado por marcadores sociais que aprofundam
desigualdades.
<><>
Deepfakes afetam milhões diariamente
Que as
ferramentas de inteligência artificial fazem cada vez mais parte do cotidiano
já é perceptível. A pesquisa identificou que 47% dos usuários de internet com
16 anos ou mais já utilizaram IA generativa, como o ChatGPT. Mas, além de mais
uma ferramenta pela qual os usuários buscam informações, a IA também aparece
como vetor de desinformação por meio das deepfakes.
Imagens,
áudios ou vídeos produzidos ou manipulados por inteligência artificial são cada
vez mais realistas e já chegam diariamente e 41% dos usuários entrevistados. Em
ano eleitoral, a circulação de deepfakes com potencial nocivo à democracia já é
uma realidade.
No
início do mês, o jornalista do ICL Notícias, Leandro Demori, denunciou a
circulação de vídeos gerados por inteligência artificial com cenas de agressão
a mulheres vestindo camiseta do Partido dos Trabalhadores (PT), incitando a
violência política dentro de supostas igrejas evangélicas.
Os
vídeos chegaram a circular livremente por plataformas como TikTok, Instagram e
Facebook, levantando debates sobre o papel das big techs na disseminação desse
tipo de conteúdo.
<><>
Deepfakes e o cenário eleitoral
Com a
maioria dos usuários de internet usando as redes sociais como principal fonte
diária de acesso à informação, o número de pessoas expostas às deepfakes chama
a atenção. Mas a pesquisa também revelou um cenário ainda mais perigoso.
Muita
gente pode estar sendo exposta a esse tipo de material sem nem perceber ou
conseguir reconhecer que se trata de um conteúdo manipulado. O estudo
identificou que o percentual de pessoas que desconhecem o tema ou o contato com
deepfakes é muito influenciado por marcadores sociais.
Cerca
de 20% dos usuários das classes D/E desconhecem o assunto, enquanto na classe A
o número chega a 7%. O grau de instrução também é outro fator de influência:
apenas 8% daqueles com ensino superior não conhecem o tema, enquanto o número
chega a 24% entre quem tem o ensino fundamental incompleto.
O
cenário gera preocupações que vão além das fronteiras das redes sociais. Em
relatório divulgado em 2025, a Agência Brasileira de Informação (Abin) apontou
que a velocidade com que se criam e disseminam conteúdos gerados por IA supera
a capacidade de verificação e apresentação da verdade e classificou a
contaminação do debate público, sobretudo no ano eleitoral de 2026, como
“inevitável”.
<><>
Conectados, mas vulneráveis
A
pesquisa do CGI.br revela mais sobre o ecossistema informacional brasileiro do
que sobre hábitos individuais de consumo. Um dos achados aponta para a relação
entre o acesso exclusivo à informação por plataformas digitais e a expansão das
redes de internet com zero-rating, modelo oferecido por operadoras que permite
navegar em aplicativos específicos, principalmente redes sociais, sem desconto
da franquia de dados.
Na
prática, o fenômeno pode indicar que, para uma parcela significativa dos
brasileiros, o plano de dados é quem define onde a informação é consumida.
O
estudo também mostra que marcadores sociodemográficos e socioeconômicos — como
classe, gênero, escolaridade e idade —
produzem efeitos distintos na forma como as pessoas se relacionam com o
conteúdo que consomem, na capacidade de reconhecer informações enganosas e no
domínio de habilidades digitais. A vulnerabilidade à desinformação, portanto,
não é distribuída de forma igual.
<><>
Desconfiança generalizada não protege e pode aumentar a vulnerabilidade
Quanto
a forma como os brasileiros atribuem confiança ou se engajam em conteúdos na
internet, “os resultados também chamam a atenção para a existência de uma
postura de desengajamento informacional entre uma parcela significativa dos
usuários de Internet brasileiros de 16 anos ou mais”.
Segundo
o estudo, esse fenômeno tem relação com a falta de interesse ou de confiança na
eficácia de práticas de verificação. Esquecer de checar, não ter interesse ou
simplesmente ter certeza prévia sobre o que é verdadeiro ou falso foram os
fatores mais determinantes para a não-verificação.
Outro
achado relevante encontrado pelos pesquisadores, indica que: desconfiar mais
não significa, necessariamente, estar mais protegido. Quando expostos a
informações falsas e verdadeiras que circularam nos últimos anos, os usuários
que relataram desconfiar “sempre” ou “na maioria das vezes” de veículos
jornalísticos, informações oficiais e mídias públicas foram justamente os que
apresentaram pior desempenho na identificação de conteúdos enganosos
Os
melhores resultados ficaram com quem acessa a internet pelo celular e pelo
computador, consome notícias diariamente e pratica a verificação com
regularidade. Os dados sugerem, portanto, que a desconfiança generalizada não
protege. Ela pode, na verdade, aumentar a exposição.
• Plataformas digitais: A censura que não
ocultou nada. Por Ramsés Albertoni
Em 9 de
abril de 2026, a comunicadora digital Kriska Carvalho (@KriskaCarvalho)
publicou em seu perfil na plataforma X uma série de observações que, embora
formuladas na linguagem direta das mídias sociais, tocam em questões de
considerável densidade para o campo da comunicação e da teoria política. Seu
argumento central pode ser resumido nos seguintes termos: a volatilidade
anormal dos assuntos do momento na plataforma estaria sendo instrumentalizada
por setores da extrema direita para construir, artificialmente, a narrativa de
censura, mesmo nos casos em que as notícias referenciadas foram amplamente
divulgadas pela imprensa convencional. A autora menciona, como exemplo
paradigmático, o incêndio ocorrido no dia 8 de abril no Velódromo do Parque
Olímpico, na Barra da Tijuca, Rio de Janeiro, pois foi um fato coberto
inclusive pelo Jornal Nacional, mas que, por não ter permanecido entre os
trending topics, foi reinterpretado como evidência de ocultamento deliberado.
Dessa forma, este artigo não busca refutar nem confirmar em bloco as teses de
Kriska, mas tensioná-las, complexificá-las e situá-las em um quadro analítico
mais amplo, reconhecendo tanto o que elas capturam com precisão quanto o que
eventualmente simplificam.
O ponto
de partida mais produtivo é, talvez, a distinção entre comportamento de rede e
operação coordenada. Kriska afirma que não gosta de teorias da conspiração e
que prefere observar comportamentos, mas sua conclusão, de que a disseminação
coordenada da narrativa de censura “dificilmente é por acaso”, recai
precisamente no tipo de raciocínio que ela diz recusar, a saber, o de que a
sincronia implica planejamento central. A questão é epistemicamente mais
delicada do que parece, pois na literatura sobre desinformação e comportamento
de redes, a coordenação pode assumir formas híbridas, nas quais atores
deliberados amplificam disposições espontâneas de grupos que acreditam
genuinamente no que disseminam. A desinformação eficaz combina, frequentemente,
elementos estratégicos com dinâmicas orgânicas de adesão. Isso significa que a
narrativa de censura pode ser simultaneamente construída por agentes com
intenção manipuladora e reproduzida por usuários que a percebem como genuína, o
que torna a pergunta sobre coordenação menos binária e mais estrutural.
Antes
de qualquer interpretação política, contudo, é necessário examinar o fenômeno
técnico que Kriska identifica, a instabilidade dos assuntos em alta. A
percepção de que “nada fixa” tem explicações plausíveis no plano da arquitetura
das plataformas que não requerem, em si, a hipótese de intervenção externa. A
partir de 2022, sob nova gestão, o X passou por sucessivas mudanças
algorítmicas que priorizaram picos rápidos de engajamento em detrimento de
permanência temática. A isso se soma a fragmentação da atenção entre múltiplas
plataformas, uma vez que o debate que começa no X migra para as outras
plataformas, dissolvendo a percepção de centralidade. O volume crescente de
conteúdo disputando atenção simultânea também contribui para que nenhum tema
domine por muito tempo. Desconsiderar essas variáveis técnicas ao interpretar a
volatilidade dos trending topics é um equívoco metodológico relevante, porque é
precisamente a ambiguidade do fenômeno, podendo ser ao mesmo tempo técnico e
explorado politicamente, que o torna tão eficaz como combustível narrativo. A
narrativa de censura não funciona apesar da incerteza sobre as causas da
volatilidade, ela funciona por causa dessa incerteza.
Esse
ponto conduz ao mecanismo central que Kriska identifica com precisão e que
merece ser aprofundado teoricamente, isto é, a fabricação da sensação de
censura sem censura efetiva. O argumento não é o de que a imprensa foi
silenciada, mas o de que a percepção de silêncio pode ser produzida
independentemente do silêncio real. Trata-se de uma operação que opera sobre as
condições de percepção da informação, e não sobre a informação em si. As
narrativas desinformativas alteram a forma como os indivíduos avaliam a
credibilidade das informações disponíveis, tornando-os suscetíveis a
interpretações que confirmam disposições prévias. Nesse quadro, o fato de uma
notícia ter sido amplamente coberta pela mídia convencional não constitui
imunidade contra sua reinterpretação como evidência de ocultamento, desde que
essa reinterpretação ressoe com uma desconfiança já instalada nas audiências.
É aqui
que o argumento de Kriska encontra sua eficácia, mas também suas limitações
mais visíveis, porquanto ao descrever o padrão como “típico do discurso
autoritário” e ao mencionar Trump como referência internacional, a autora
articula uma genealogia política importante, a do populismo midiático que ataca
as instituições de mediação para substituí-las por comunicação direta e
desintermediada, haja vista que existe a tendência de líderes populistas a
transformar a mídia em adversário estrutural, construindo uma identidade
política fundada no confronto com os “guardiões” da informação e da memória.
Essa estratégia, documentada em múltiplos contextos nacionais, efetivamente
desgasta a confiança nas instituições jornalísticas como efeito calculado, não
colateral. A literatura sobre erosão institucional mediada pela desinformação
confirma que a disseminação sistemática de narrativas de descrédito da imprensa
produz quedas mensuráveis de confiança, independentemente da qualidade factual
dos veículos atacados.
No
entanto, é necessário problematizar a direção causal implícita no texto de
Krika, visto que ao atribuir o fenômeno principalmente à ação deliberada da
extrema direita a autora corre o risco de subestimar a agência estrutural das
próprias plataformas na produção do ambiente propício a essas narrativas. O
capitalismo de vigilância transforma dados comportamentais em matéria-prima
para a modulação de comportamento em escala. Isso significa que as plataformas
não são apenas palcos neutros sobre os quais atores políticos agem, elas
amplificam ativamente conteúdos que maximizam engajamento, e conteúdos
emocionalmente carregados, especialmente aqueles que evocam indignação, ameaça
ou perseguição, têm vantagem estrutural nesse ambiente. A sensação de censura,
portanto, não é apenas construída por atores mal-intencionados e depois
amplificada passivamente, ela é, em certa medida, o tipo de conteúdo que a
lógica econômica das plataformas está estruturalmente orientada a amplificar.
Isso não absolve os agentes políticos que a instrumentalizam, mas desloca
parcialmente a responsabilidade para a arquitetura do sistema de informação
contemporâneo.
A
plataformização da esfera pública, processo pelo qual infraestruturas privadas
assumem a mediação da informação coletiva segundo critérios opacos e orientados
por métricas de engajamento, cria uma assimetria cognitiva fundamental. Os
usuários experimentam os efeitos das decisões algorítmicas sem ter acesso às
regras que as governam. Nesse contexto de opacidade estrutural, a suspeita de
manipulação não é apenas uma resposta irracional ou politicamente induzida, mas
é uma resposta possível e, em certa medida, funcionalmente racional diante de
um sistema cujo funcionamento interno é sistematicamente ocultado. O problema é
que essa suspeita legítima pode ser capturada e dirigida por narrativas que a
convertem em paranoia política e desconfiança da imprensa, em vez de crítica à
lógica das plataformas. A distinção entre desconfiar do algoritmo e desconfiar
do jornalismo é precisamente o que as narrativas que Kriska descreve tratam de
dissolver.
Existe,
contudo, uma tensão metodológica que o próprio texto de Kriska ilustra e que
vale nomear, já que a autora, ao observar comportamento de rede e identificar
padrões coordenados, mobiliza exatamente o mesmo tipo de raciocínio
inferencial, de padrão para intenção, que atribui à extrema direita quando esta
interpreta a volatilidade dos trending topics como evidência de censura. Em
ambos os casos, parte-se de uma observação de superfície (o que aparece ou não
aparece na plataforma) para uma conclusão sobre agência deliberada (há
coordenação, há ocultamento). Isso não invalida a análise de Kriska, cujo
argumento tem suporte empírico mais robusto do que o que critica, mas aponta
para a necessidade de rigor metodológico simétrico, pois a coordenação, quando
afirmada, deve ser demonstrada com evidências de sincronização anormal, redes
de amplificação identificáveis e padrões de repetição de frame que não sejam
explicáveis por adesão espontânea. Sem isso, corre-se o risco de substituir uma
narrativa de padrão por outra igualmente especulativa.
O que
está em jogo, no entanto, vai além da disputa sobre a veracidade de conteúdos
específicos ou da identificação de responsáveis por esta ou aquela campanha.
Estamos falando de arquitetura da confiança. Quando a imprensa é
sistematicamente apresentada como cúmplice de ocultamento, quando instituições
são enquadradas como agentes de desinformação e quando a experiência
individual, amplificada por algoritmos que aprendem a reforçar disposições
prévias, passa a ser considerada mais confiável do que a verificação coletiva,
o espaço público perde sua capacidade de constituir referências compartilhadas.
Isso não é apenas um problema de desinformação, mas uma crise de mediação, no
sentido mais profundo do termo. A pergunta relevante, portanto, não é apenas se
há ou não censura em dado momento, mas como determinadas condições estruturais
– técnicas, econômicas e políticas – tornam plausível, sustentável e
emocionalmente convincente a crença em sua existência.
A
observação de Kriska Carvalho, formulada nas condições do discurso das mídias
sociais, aponta para um problema real e documentável. Sua contribuição está em
nomear, com precisão prática, um mecanismo que a literatura especializada
confirma, ou seja, a possibilidade de fabricar a percepção de censura sem
censura efetiva. Entretanto, o que o tensionamento crítico aqui proposto sugere
é que esse mecanismo não pode ser reduzido à ação de agentes específicos sem
considerar o ambiente estrutural que o torna operável. A instabilidade
algorítmica das plataformas, a lógica econômica que privilegia o emocional
sobre o factual, a opacidade dos sistemas de visibilidade e a erosão
progressiva da confiança institucional não são pano de fundo neutro sobre o
qual a desinformação age, são condições de possibilidade sem as quais ela não
prosperaria. Compreender isso não é absolver nenhum ator, mas é condição para
enfrentar o problema com a complexidade que ele exige.
Fonte:
Por Iago Filgueiras, no ICL Notícias/Observatório da Imprensa

Nenhum comentário:
Postar um comentário