sábado, 25 de abril de 2026

Internet é principal meio de acesso à informação no Brasil, mas deepfakes e desconfiança ameaçam o ambiente

Nos últimos anos, o número de usuários conectados à internet no Brasil cresceu significativamente, e esse cenário tem transformado a forma como os brasileiros se informam. Entre aqueles que fazem uso regular do mundo digital, 72% das pessoas com 16 anos ou mais acessam redes sociais diariamente como fonte de informação.

O dado é da pesquisa Painel TIC – Integridade da Informação, lançada pelo Núcleo de Informação e Coordenação do Ponto BR (NIC.br) e pelo Comitê Gestor da Internet no Brasil (CGI.br) no início deste mês. O estudo entrevistou 5.250 usuários de internet com 16 anos ou mais e foi conduzido pelo Centro Regional de Estudos para o Desenvolvimento da Sociedade da Informação (Cetic.br).

Além de confirmar que as plataformas digitais se consolidaram como principal fonte de informação diária para milhões de usuários, a pesquisa traz outros números relevantes:

•        Embora redes sociais sejam usadas por 72% dos entrevistados para acessar informações diariamente, o formato do conteúdo varia: vídeos curtos lideram (53%), seguidos por sites ou aplicativos de vídeo (50%) e feeds de notícias (46%)

•        Aplicativos de mensagem são fonte diária de informação para 60% dos usuários

•        Rádio e televisão ainda alcançam 58%, mas já ficaram para trás das plataformas digitais

•        Revistas digitais ou impressas aparecem em último lugar, com 34%

<><> A encruzilhada da confiança

Com plataformas digitais e aplicativos de mensagem liderando como fonte diária de informação, algumas questões precisam ser respondidas: qual a qualidade do que está sendo consumido e será que os usuários sabem identificar conteúdos desinformativos?

A resposta é complexa. A pesquisa revela que muita gente desconfia “sempre” ou “na maioria das vezes” das informações que recebe. Mas essa desconfiança não é distribuída igualmente: 48% dos usuários desconfiam de veículos de notícias tradicionais, 47% de canais em aplicativos de vídeo ou streaming e 43% de figuras públicas nas redes sociais.

<><> A mídia tradicional na mira da desconfiança

Na prática, a mídia tradicional tem sido mais alvo de desconfiança do que os influenciadores digitais, e o perfil de quem desconfia — ou não — varia. Homens (52%) e pessoas com apenas o ensino fundamental completo (59%) lideram a desconfiança em relação a veículos jornalísticos. Já os influenciadores digitais são vistos com mais ceticismo por usuários com 60 anos ou mais (51%).

Essa desconfiança também parece guiar as escolhas de consumo. Cerca de 65% dos usuários acessam diariamente notícias de veículos jornalísticos; entre os jovens de 16 a 24 anos, o percentual cai para 46%.

Para Fabio Senne, coordenador-geral de pesquisas do Cetic.br, os dados se alinham a uma tendência já observada em outras pesquisas.

“Há uma queda no engajamento com mídias tradicionais e redução no interesse pelo consumo de notícias, sobretudo entre os mais jovens. Esse é um ponto de atenção para as políticas públicas no campo”, afirma em comunicado à imprensa.

A desconfiança caminha lado a lado com o desinteresse pela verificação. Cerca de 34% dos usuários concordam que “não vale a pena pesquisar se as informações recebidas são verdadeiras ou falsas”, e 30% simplesmente não se interessam por esse tipo de checagem.

O desinteresse pela verificação afeta mais homens, jovens, pessoas das classes C e D/E e com baixa escolaridade. O dado revela que a dificuldade em avaliar informações é um fenômeno atravessado por marcadores sociais que aprofundam desigualdades.

<><> Deepfakes afetam milhões diariamente

Que as ferramentas de inteligência artificial fazem cada vez mais parte do cotidiano já é perceptível. A pesquisa identificou que 47% dos usuários de internet com 16 anos ou mais já utilizaram IA generativa, como o ChatGPT. Mas, além de mais uma ferramenta pela qual os usuários buscam informações, a IA também aparece como vetor de desinformação por meio das deepfakes.

Imagens, áudios ou vídeos produzidos ou manipulados por inteligência artificial são cada vez mais realistas e já chegam diariamente e 41% dos usuários entrevistados. Em ano eleitoral, a circulação de deepfakes com potencial nocivo à democracia já é uma realidade.

No início do mês, o jornalista do ICL Notícias, Leandro Demori, denunciou a circulação de vídeos gerados por inteligência artificial com cenas de agressão a mulheres vestindo camiseta do Partido dos Trabalhadores (PT), incitando a violência política dentro de supostas igrejas evangélicas.

Os vídeos chegaram a circular livremente por plataformas como TikTok, Instagram e Facebook, levantando debates sobre o papel das big techs na disseminação desse tipo de conteúdo.

<><> Deepfakes e o cenário eleitoral

Com a maioria dos usuários de internet usando as redes sociais como principal fonte diária de acesso à informação, o número de pessoas expostas às deepfakes chama a atenção. Mas a pesquisa também revelou um cenário ainda mais perigoso.

Muita gente pode estar sendo exposta a esse tipo de material sem nem perceber ou conseguir reconhecer que se trata de um conteúdo manipulado. O estudo identificou que o percentual de pessoas que desconhecem o tema ou o contato com deepfakes é muito influenciado por marcadores sociais.

Cerca de 20% dos usuários das classes D/E desconhecem o assunto, enquanto na classe A o número chega a 7%. O grau de instrução também é outro fator de influência: apenas 8% daqueles com ensino superior não conhecem o tema, enquanto o número chega a 24% entre quem tem o ensino fundamental incompleto.

O cenário gera preocupações que vão além das fronteiras das redes sociais. Em relatório divulgado em 2025, a Agência Brasileira de Informação (Abin) apontou que a velocidade com que se criam e disseminam conteúdos gerados por IA supera a capacidade de verificação e apresentação da verdade e classificou a contaminação do debate público, sobretudo no ano eleitoral de 2026, como “inevitável”.

<><> Conectados, mas vulneráveis

A pesquisa do CGI.br revela mais sobre o ecossistema informacional brasileiro do que sobre hábitos individuais de consumo. Um dos achados aponta para a relação entre o acesso exclusivo à informação por plataformas digitais e a expansão das redes de internet com zero-rating, modelo oferecido por operadoras que permite navegar em aplicativos específicos, principalmente redes sociais, sem desconto da franquia de dados.

Na prática, o fenômeno pode indicar que, para uma parcela significativa dos brasileiros, o plano de dados é quem define onde a informação é consumida.

O estudo também mostra que marcadores sociodemográficos e socioeconômicos — como classe, gênero, escolaridade e idade —  produzem efeitos distintos na forma como as pessoas se relacionam com o conteúdo que consomem, na capacidade de reconhecer informações enganosas e no domínio de habilidades digitais. A vulnerabilidade à desinformação, portanto, não é distribuída de forma igual.

<><> Desconfiança generalizada não protege e pode aumentar a vulnerabilidade

Quanto a forma como os brasileiros atribuem confiança ou se engajam em conteúdos na internet, “os resultados também chamam a atenção para a existência de uma postura de desengajamento informacional entre uma parcela significativa dos usuários de Internet brasileiros de 16 anos ou mais”.

Segundo o estudo, esse fenômeno tem relação com a falta de interesse ou de confiança na eficácia de práticas de verificação. Esquecer de checar, não ter interesse ou simplesmente ter certeza prévia sobre o que é verdadeiro ou falso foram os fatores mais determinantes para a não-verificação.

Outro achado relevante encontrado pelos pesquisadores, indica que: desconfiar mais não significa, necessariamente, estar mais protegido. Quando expostos a informações falsas e verdadeiras que circularam nos últimos anos, os usuários que relataram desconfiar “sempre” ou “na maioria das vezes” de veículos jornalísticos, informações oficiais e mídias públicas foram justamente os que apresentaram pior desempenho na identificação de conteúdos enganosos

Os melhores resultados ficaram com quem acessa a internet pelo celular e pelo computador, consome notícias diariamente e pratica a verificação com regularidade. Os dados sugerem, portanto, que a desconfiança generalizada não protege. Ela pode, na verdade, aumentar a exposição.

•        Plataformas digitais: A censura que não ocultou nada. Por Ramsés Albertoni

Em 9 de abril de 2026, a comunicadora digital Kriska Carvalho (@KriskaCarvalho) publicou em seu perfil na plataforma X uma série de observações que, embora formuladas na linguagem direta das mídias sociais, tocam em questões de considerável densidade para o campo da comunicação e da teoria política. Seu argumento central pode ser resumido nos seguintes termos: a volatilidade anormal dos assuntos do momento na plataforma estaria sendo instrumentalizada por setores da extrema direita para construir, artificialmente, a narrativa de censura, mesmo nos casos em que as notícias referenciadas foram amplamente divulgadas pela imprensa convencional. A autora menciona, como exemplo paradigmático, o incêndio ocorrido no dia 8 de abril no Velódromo do Parque Olímpico, na Barra da Tijuca, Rio de Janeiro, pois foi um fato coberto inclusive pelo Jornal Nacional, mas que, por não ter permanecido entre os trending topics, foi reinterpretado como evidência de ocultamento deliberado. Dessa forma, este artigo não busca refutar nem confirmar em bloco as teses de Kriska, mas tensioná-las, complexificá-las e situá-las em um quadro analítico mais amplo, reconhecendo tanto o que elas capturam com precisão quanto o que eventualmente simplificam.

O ponto de partida mais produtivo é, talvez, a distinção entre comportamento de rede e operação coordenada. Kriska afirma que não gosta de teorias da conspiração e que prefere observar comportamentos, mas sua conclusão, de que a disseminação coordenada da narrativa de censura “dificilmente é por acaso”, recai precisamente no tipo de raciocínio que ela diz recusar, a saber, o de que a sincronia implica planejamento central. A questão é epistemicamente mais delicada do que parece, pois na literatura sobre desinformação e comportamento de redes, a coordenação pode assumir formas híbridas, nas quais atores deliberados amplificam disposições espontâneas de grupos que acreditam genuinamente no que disseminam. A desinformação eficaz combina, frequentemente, elementos estratégicos com dinâmicas orgânicas de adesão. Isso significa que a narrativa de censura pode ser simultaneamente construída por agentes com intenção manipuladora e reproduzida por usuários que a percebem como genuína, o que torna a pergunta sobre coordenação menos binária e mais estrutural.

Antes de qualquer interpretação política, contudo, é necessário examinar o fenômeno técnico que Kriska identifica, a instabilidade dos assuntos em alta. A percepção de que “nada fixa” tem explicações plausíveis no plano da arquitetura das plataformas que não requerem, em si, a hipótese de intervenção externa. A partir de 2022, sob nova gestão, o X passou por sucessivas mudanças algorítmicas que priorizaram picos rápidos de engajamento em detrimento de permanência temática. A isso se soma a fragmentação da atenção entre múltiplas plataformas, uma vez que o debate que começa no X migra para as outras plataformas, dissolvendo a percepção de centralidade. O volume crescente de conteúdo disputando atenção simultânea também contribui para que nenhum tema domine por muito tempo. Desconsiderar essas variáveis técnicas ao interpretar a volatilidade dos trending topics é um equívoco metodológico relevante, porque é precisamente a ambiguidade do fenômeno, podendo ser ao mesmo tempo técnico e explorado politicamente, que o torna tão eficaz como combustível narrativo. A narrativa de censura não funciona apesar da incerteza sobre as causas da volatilidade, ela funciona por causa dessa incerteza.

Esse ponto conduz ao mecanismo central que Kriska identifica com precisão e que merece ser aprofundado teoricamente, isto é, a fabricação da sensação de censura sem censura efetiva. O argumento não é o de que a imprensa foi silenciada, mas o de que a percepção de silêncio pode ser produzida independentemente do silêncio real. Trata-se de uma operação que opera sobre as condições de percepção da informação, e não sobre a informação em si. As narrativas desinformativas alteram a forma como os indivíduos avaliam a credibilidade das informações disponíveis, tornando-os suscetíveis a interpretações que confirmam disposições prévias. Nesse quadro, o fato de uma notícia ter sido amplamente coberta pela mídia convencional não constitui imunidade contra sua reinterpretação como evidência de ocultamento, desde que essa reinterpretação ressoe com uma desconfiança já instalada nas audiências.

É aqui que o argumento de Kriska encontra sua eficácia, mas também suas limitações mais visíveis, porquanto ao descrever o padrão como “típico do discurso autoritário” e ao mencionar Trump como referência internacional, a autora articula uma genealogia política importante, a do populismo midiático que ataca as instituições de mediação para substituí-las por comunicação direta e desintermediada, haja vista que existe a tendência de líderes populistas a transformar a mídia em adversário estrutural, construindo uma identidade política fundada no confronto com os “guardiões” da informação e da memória. Essa estratégia, documentada em múltiplos contextos nacionais, efetivamente desgasta a confiança nas instituições jornalísticas como efeito calculado, não colateral. A literatura sobre erosão institucional mediada pela desinformação confirma que a disseminação sistemática de narrativas de descrédito da imprensa produz quedas mensuráveis de confiança, independentemente da qualidade factual dos veículos atacados.

No entanto, é necessário problematizar a direção causal implícita no texto de Krika, visto que ao atribuir o fenômeno principalmente à ação deliberada da extrema direita a autora corre o risco de subestimar a agência estrutural das próprias plataformas na produção do ambiente propício a essas narrativas. O capitalismo de vigilância transforma dados comportamentais em matéria-prima para a modulação de comportamento em escala. Isso significa que as plataformas não são apenas palcos neutros sobre os quais atores políticos agem, elas amplificam ativamente conteúdos que maximizam engajamento, e conteúdos emocionalmente carregados, especialmente aqueles que evocam indignação, ameaça ou perseguição, têm vantagem estrutural nesse ambiente. A sensação de censura, portanto, não é apenas construída por atores mal-intencionados e depois amplificada passivamente, ela é, em certa medida, o tipo de conteúdo que a lógica econômica das plataformas está estruturalmente orientada a amplificar. Isso não absolve os agentes políticos que a instrumentalizam, mas desloca parcialmente a responsabilidade para a arquitetura do sistema de informação contemporâneo.

A plataformização da esfera pública, processo pelo qual infraestruturas privadas assumem a mediação da informação coletiva segundo critérios opacos e orientados por métricas de engajamento, cria uma assimetria cognitiva fundamental. Os usuários experimentam os efeitos das decisões algorítmicas sem ter acesso às regras que as governam. Nesse contexto de opacidade estrutural, a suspeita de manipulação não é apenas uma resposta irracional ou politicamente induzida, mas é uma resposta possível e, em certa medida, funcionalmente racional diante de um sistema cujo funcionamento interno é sistematicamente ocultado. O problema é que essa suspeita legítima pode ser capturada e dirigida por narrativas que a convertem em paranoia política e desconfiança da imprensa, em vez de crítica à lógica das plataformas. A distinção entre desconfiar do algoritmo e desconfiar do jornalismo é precisamente o que as narrativas que Kriska descreve tratam de dissolver.

Existe, contudo, uma tensão metodológica que o próprio texto de Kriska ilustra e que vale nomear, já que a autora, ao observar comportamento de rede e identificar padrões coordenados, mobiliza exatamente o mesmo tipo de raciocínio inferencial, de padrão para intenção, que atribui à extrema direita quando esta interpreta a volatilidade dos trending topics como evidência de censura. Em ambos os casos, parte-se de uma observação de superfície (o que aparece ou não aparece na plataforma) para uma conclusão sobre agência deliberada (há coordenação, há ocultamento). Isso não invalida a análise de Kriska, cujo argumento tem suporte empírico mais robusto do que o que critica, mas aponta para a necessidade de rigor metodológico simétrico, pois a coordenação, quando afirmada, deve ser demonstrada com evidências de sincronização anormal, redes de amplificação identificáveis e padrões de repetição de frame que não sejam explicáveis por adesão espontânea. Sem isso, corre-se o risco de substituir uma narrativa de padrão por outra igualmente especulativa.

O que está em jogo, no entanto, vai além da disputa sobre a veracidade de conteúdos específicos ou da identificação de responsáveis por esta ou aquela campanha. Estamos falando de arquitetura da confiança. Quando a imprensa é sistematicamente apresentada como cúmplice de ocultamento, quando instituições são enquadradas como agentes de desinformação e quando a experiência individual, amplificada por algoritmos que aprendem a reforçar disposições prévias, passa a ser considerada mais confiável do que a verificação coletiva, o espaço público perde sua capacidade de constituir referências compartilhadas. Isso não é apenas um problema de desinformação, mas uma crise de mediação, no sentido mais profundo do termo. A pergunta relevante, portanto, não é apenas se há ou não censura em dado momento, mas como determinadas condições estruturais – técnicas, econômicas e políticas – tornam plausível, sustentável e emocionalmente convincente a crença em sua existência.

A observação de Kriska Carvalho, formulada nas condições do discurso das mídias sociais, aponta para um problema real e documentável. Sua contribuição está em nomear, com precisão prática, um mecanismo que a literatura especializada confirma, ou seja, a possibilidade de fabricar a percepção de censura sem censura efetiva. Entretanto, o que o tensionamento crítico aqui proposto sugere é que esse mecanismo não pode ser reduzido à ação de agentes específicos sem considerar o ambiente estrutural que o torna operável. A instabilidade algorítmica das plataformas, a lógica econômica que privilegia o emocional sobre o factual, a opacidade dos sistemas de visibilidade e a erosão progressiva da confiança institucional não são pano de fundo neutro sobre o qual a desinformação age, são condições de possibilidade sem as quais ela não prosperaria. Compreender isso não é absolver nenhum ator, mas é condição para enfrentar o problema com a complexidade que ele exige.

 

Fonte: Por Iago Filgueiras, no ICL Notícias/Observatório da Imprensa

 

Nenhum comentário: