As principais fake
news que viralizaram em 2025
O ano
de 2025 marcou um ponto de virada na evolução das campanhas de desinformação.
Com o avanço da inteligência artificial (IA), a indústria das fake news ganhou
novo impulso, alavancando ainda mais posts e vídeos curtos com conteúdo falso,
que foram visualizados e compartilhados milhões de vezes. Algumas dessas
falsificações tinham puro caráter de entretenimento. Outras, no entanto, foram
criadas com o claro objetivo de manipular opiniões, como mentiras em torno da
guerra da Rússia na Ucrânia ou até sobre o presidente francês, Emmanuel Macron.
Impulsionadas
por IA generativa, deepfake e estratégias de segmentação nas redes sociais,
essas campanhas de desinformação borraram a linha entre realidade e ficção em
uma escala sem precedentes. De vídeos sintéticos buscando influenciar o
comportamento do eleitorado a narrativas falsas que alimentam tensões
geopolíticas, a desinformação em 2025 acelerou de forma inédita – a ponto de
hoje representar uma ameaça sistêmica aos processos democráticos e à confiança
pública. Ao longo do ano, a equipe de checagem da DW publicou uma série de
verificações de fatos, desmistificando diversas narrativas falsas e enganosas
que moldavam debates sobre política, saúde, clima, tecnologia, esportes e
história.
>>>>
Confira abaixo algumas histórias que dominaram o cenário da desinformação em
2025.
<><>
Política: desinformação influenciando eleições
Alegações
falsas sobre eleições e campanhas de desinformação com o objetivo de
influenciar os eleitores proliferaram pelo mundo, sobretudo no Brasil e na
Moldávia.
Na
arena política mundial, um dos principais alvos de desinformação em 2025 foi o
presidente ucraniano, Volodimir Zelenski. Desde falsas alegações do presidente
dos EUA, Donald Trump, em fevereiro, de que Zelenski havia perdido o apoio
popular, até críticas contra o ucraniano durante sua visita à Casa Branca, em
março, levaram a uma nova onda de desinformação sobre a guerra na Ucrânia. Nos Estados Unidos, o então recém-eleito
prefeito da cidade de Nova York, Zohran Mamdani, também foi alvo de fake news.
Menos de uma semana após sua vitória, circulavam na rede vídeos falsos de
bandeiras americanas sendo substituídas por palestinas e de multidões de
muçulmanos na Time Square. Em ambos os casos, os vídeos eram de datas
anteriores à eleição e não tinham relação alguma com Mamdani.
<><>
Mitos sobre saúde e clima
A
verificação de fatos da DW constatou que a desinformação sobre saúde ia de
afirmações bizarras como "uso de protetor solar aumenta o risco de câncer
de pele" e "comer certos alimentos durante a gravidez deixa a pele do
bebê mais clara" até afirmações mais perigosas como "uma dieta
saudável pode curar o câncer de mama". No Paquistão, boatos durante a
campanha de vacinação contra o HPV diziam que os imunizantes causavam
infertilidade e deficiências, geraram hesitação e até ameaças contra
profissionais de saúde.
No
âmbito do clima, negacionistas continuaram distorcendo pesquisas em 2025. Em
março, foram divulgadas imagens de satélite mostrando um crescimento das
geleiras na Antártida. Isso foi suficiente para gerar rumores de que "o
aquecimento global acabou" ou mesmo de que seria uma farsa completa. Mas a
realidade é muito mais complexa: especialistas consultados pela DW explicam o
aumento como flutuações naturais do fenômeno, sem necessariamente refletir uma
tendência. O recorte, em suma, é muito curto.
<><>
Tecnologia, esportes e história – indústria da desinformação não poupa nada
Em
2025, cada vez mais pessoas recorreram à IA para obter respostas. Segundo o
relatório Generative AI and News 2025, do Instituto Reuters, o uso semanal de
sistemas de IA generativa, como o ChatGPT, e o consumo de notícias por meio de
IA generativa praticamente dobraram. Ferramentas de verificação de fatos por IA
também ganharam popularidade – mas ainda erram com frequência. Um estudo
recente aponta que elas muitas vezes pecam no fornecimento de informações
precisas e baseadas em fatos. Mas não foi apenas a tecnologia que impulsionou a
desinformação em 2025. Tópicos controversos que despertam emoções também se
tornaram um terreno fértil para narrativas falsas que se espalham rapidamente
nas redes sociais. Um deles foi o debate sobre mulheres transgênero no esporte,
que se intensificou depois que Trump assinou um decreto proibindo atletas trans
nas competições femininas.
A DW
analisou estudos e conversou com especialistas: mulheres trans têm realmente
uma vantagem injusta no esporte? Outra polêmica girou em torno da
vitória-relâmpago de Imane Khelif, boxeadora argelina e mulher cisgênero, que
também foi alvo de uma série de falsas alegações de que seria uma atleta trans.
Temas
históricos também foram usados para disseminar narrativas falsas ao longo do
ano. Em fevereiro, circularam informações incorretas sobre o número de mortos
nos bombardeios aliados a Dresden, em 1945. No último ano da Segunda Guerra
Mundial, esquadrões britânicos e americanos realizaram ataques aéreos
devastadores à cidade alemã. Estudos apontam até 25 mil vítimas entre 13 e 15
de fevereiro. Hoje, porém, alguns usuários divulgam números dez vezes maiores,
sem qualquer base histórica. Anteriormente, Alice Weidel, então candidata à
chanceleria alemã pelo partido populista de ultradireita Alternativa para a
Alemanha (AfD), afirmou falsamente que Hitler "era comunista", e não
"de direita", durante uma conversa ao vivo com o magnata Elon Musk.
Historiadores discordam veementemente, conforme mostrou a DW.
<><>
Vídeos falsos que viralizaram em 2025
De
vídeos virais a imagens geradas por IA, tivemos mais um ano marcado por uma
profusão de mentiras na internet. Um deles foi o momento capturado em um telão
durante um show do Coldplay, reacendendo a teoria de que a série americana Os
Simpsons prevê eventos globais. Spoiler: não é verdade. Em maio, imagens
manipuladas por IA do jovem sírio Muhammad al-Muhammad, que ajudou a impedir um
ataque a faca em Hamburgo, inundaram as redes sociais, colocando em dúvida sua
participação no ato.
E
quanto a um vídeo histórico de Jerusalém, datado de 1897 e a cores, que também
viralizou nas redes? Para a surpresa de muitos, real – salvo as cores, que
foram adicionadas posteriormente. E não, os mercados de Natal na Alemanha não
foram cancelados em 2025 – e nem "invadidos" por muçulmanos. Tudo
isso foi fake.
<><>
Brasil: de fake news nacionais a "importadas"
Logo no
início do ano, um assunto dominou as manchetes do país inteiro: haveria
mudanças nas regras do Pix. Basicamente, a portaria buscava ampliar o
monitoramento de transações acima de R$ 5 mil por mês feitas via bancos
digitais, fintechs e instituições de pagamento. Mas uma onda de desinformação,
que envolveu até um vídeo produzido por IA simulando a imagem e a voz de
Haddad, levava os usuários a acreditarem que haveria um novo imposto para
enviar dinheiro de forma digital. O
impacto foi tamanho que comerciantes passaram a recusar transações digitais, ou
mesmo a cobrar mais por elas. Segundo o Banco Central, o volume de
transferências por Pix chegou a cair 15,3% nas duas primeiras semanas de
janeiro, em comparação com o mesmo período de dezembro. Por fim, o governo se
viu forçado a revogar a regra.
Outra
notícia falsa que teve origem nos EUA também encontrou eco no Brasil: a ideia
de que o paracetamol causa autismo. Pesquisadores, no entanto, rebatem a
alegação e afirmam não haver evidências suficientes que estabeleçam uma relação
entre o medicamento e o transtorno.
Também
um vídeo que mostrava um menino rezando num elevador deu o que falar, até ser
revelado que não passava de mais um fake.
Mais recentemente, às vésperas da COP30, em Belém, uma nova polêmica
tomou conta da esfera conservadora nas redes sociais: compartilhando uma
notícia veiculada pela rede americana Fox News, Trump afirmou que a Floresta
Amazônica foi desmatada para a construção de uma rodovia que serviria ao
megaevento da ONU.
Entretanto,
a DW checou se a COP30 de fato foi a causa da obra e responsável pelo
desmatamento da Floresta Amazônica em Belém. A afirmação é enganosa, uma vez
que tenta simplificar o que, na verdade, é um caso complexo antigo no debate
sobre a infraestrutura da região.
<><>
Colaboração é chave no combate à desinformação
Em
2025, grandes parcerias ajudaram a fortalecer a checagem de fatos. A DW uniu
forças com a rede de checagem de fatos da emissora pública alemã ARD e com a
Spotlight Network da União Europeia de Radiodifusão (EBU) para enfrentar boatos
ligados às eleições e expor campanhas coordenadas – desde operações de
influência russa até narrativas enganosas sobre Gaza.
No
início do ano, a equipe de checagem da DW publicou diversas verificações de
fatos sobre desinformação antes e durante as eleições na Alemanha, em parceria
com os verificadores de fatos da ARD Faktenfinder e da BR24 #Faktenfuchs. Um
dos casos analisou como Elon Musk tentou influenciar o pleito alemão espalhando
informações falsas e enganosas em sua plataforma X. Outra investigação,
conduzida com a EBU, revelou que Israel estava utilizando sua agência de
publicidade governamental para executar campanhas pagas internacionais, com o
objetivo de moldar a opinião pública em partes da Europa e da América do Norte.
<><>
A ascensão dos deepfakes em 2025
Conteúdos
gerados por inteligência artificial explodiram – fáceis de criar, difíceis de
detectar. De vídeos falsos a imagens fabricadas, nunca foi tão desafiador saber
o que é real e o que é fake. De exemplos aparentemente inofensivos de coelhos
pulando animadamente em um pula-pula até noticiários gerados por IA, a nova
tecnologia parece ter mudado o jogo.
<><>
A IA pode ajudar a detectar notícias falsas?
Depois
que a Meta encerrou a verificação de fatos no Facebook e no Instagram nos EUA,
muitos usuários recorreram a chatbots como o Grok para verificar conteúdos
virais no X. "Ei, @Grok, isso é verdade?" era uma das perguntas mais
populares feitas na plataforma. Apesar de recursos como notas comunitárias e
ferramentas de IA, erros ainda persistem. Um exemplo foi uma foto atual de
Gaza, que o Grok identificou incorretamente como uma imagem antiga do Iraque,
alimentando desinformação. Conclusão: uma checagem de fatos confiável requer um
olhar humano.
• Como reconhecer sites falsos de notícias
gerados por IA
Qualquer
pessoa que utilize a da internet irá mais cedo ou mais tarde parar nas chamadas
fazendas de conteúdo – websites que publicam artigos em massa de modo a gerar
acessos e aumentar o rendimento obtido através dos anúncios. Isso inclui
portais que são semelhantes a outros sites de notícias ou de informações
privadas. Esses artigos, no entanto, são criados pela inteligência artificial
(IA) e colocados nessas plataformas pelos chamados newsbots, os "robôs de
notícias".
<><>
O que são newsbots e portais gerados por IA?
Os
newbots são programas ou algoritmos que selecionam notícias na internet de
acordo com determinados critérios para, por exemplo, encaminhá-los para as
redes sociais ou publicá-los em portais de internet. Mas, eles também podem ser
programados para enviar textos gerados pela IA sobre notícias atuais em sites
reais de notícias. Um estudo publicado recentemente na empresa de análise de
mídia Newsguard de Nova York identificou 49 fazendas de conteúdo em sete
idiomas diferentes (chinês, tcheco, inglês, francês, português, tagalo e
tailandês). Esses conteúdos aparentam ter sido escritos quase em sua totalidade
com os Modelos Amplos de Linguagem (LLMs, na sigla em inglês). Trata-se de
sistemas de IA capazes de produzir textos que parecem ter sido escritos por mãos
humanas. O aplicativo mais conhecido de LLM é provavelmente o ChatGPT, da
OpenAI. Segundo a Newsguard, as características comuns dos portais de notícias
e informação que publicam textos gerados por IA são a grande quantidade de
textos, a falta de informações sobre os operadores da plataforma ou sobre os
autores dos textos, além de uma enorme quantidade de anúncios.
Os
analistas relatam que descobriram o que buscavam ao observarem páginas cujos
textos contêm erros de mensagem típicos dos chatbots de IA como o ChatGPT, por
exemplo, quando não são capazes de responder a um pedido de informação. Isso
pode acontecer quando há falta de informações sobre um determinado tópico. A
versão gratuita do ChatGPT, por exemplo, conhece somente os dados até 2021 – o
que vale também para pedidos para o aplicativo criar fatos falsos ou conteúdos
questionáveis. Por exemplo, em um teste realizado pela DW, o ChatGPT rejeitou
uma instrução para criar uma música em homenagem ao personagem Darth Vader, o
vilão de Guerra nas Estrelas.
<><>
Porque newsbots e conteúdos gerados por IA são problemáticos?
Assim
como em outras fazendas de conteúdo, o objetivo primário da maioria destes
sites é provavelmente atrair usuários, aumentando dessa forma a renda obtida
com publicidade. Isso tudo com gastos mínimos com pessoal, avalia a Newsguard.
A desinformação intencional é a exceção, ao invés de ser a regra. Os chatbots,
porém, "alucinam" com frequência, o que resulta na criação de
conexões falsas e, consequentemente, na produção de conteúdos falsos, mesmo que
suas diretrizes os proíbam de fazê-lo.
Felix
M. Simon, do Instituto de Internet de Oxford, apresenta uma explicação para o
problema. "Os LLMs não possuem consciência, não conseguem pensar. Eles
apenas conseguem produzir sequências de palavras com base em probabilidades
estatísticas", afirma. Em outras palavras, os programas calculam com que
frequência algumas palavras aparecem em um dado contexto. Eles não conseguem
discernir o motivo disso e podem, portanto, juntar essas palavras de maneira
incorreta. "Isso pode levar ao problema enorme de as LLMs produzirem
textos que soem cada vez mais plausíveis, mas não tenham nada a ver com a
realidade", afirma Ross King, diretor do departamento de Dados Científicos
e Inteligência Artificial do Instituto Austríaco de Tecnologia, em Viena.
Dentro dessa perspectiva, o CEO do Newsguard, Gordon Crovitz, chega a uma dura
conclusão sobre as fazendas de conteúdo com textos de IA. "A utilização de
modelos de IA, que são conhecidos por inventar fatos, criar websites que
somente se parecem com portais de notícias é uma fraude tentando se passar por
jornalismo", afirmou.
Qualquer
pessoa que utilize a da internet irá mais cedo ou mais tarde parar nas chamadas
fazendas de conteúdo – websites que publicam artigos em massa de modo a gerar
acessos e aumentar o rendimento obtido através dos anúncios. Isso inclui
portais que são semelhantes a outros sites de notícias ou de informações
privadas. Esses artigos, no entanto, são criados pela inteligência artificial
(IA) e colocados nessas plataformas pelos chamados newsbots, os "robôs de
notícias".
<><>
O que são newsbots e portais gerados por IA?
Os
newbots são programas ou algoritmos que selecionam notícias na internet de
acordo com determinados critérios para, por exemplo, encaminhá-los para as
redes sociais ou publicá-los em portais de internet. Mas, eles também podem ser
programados para enviar textos gerados pela IA sobre notícias atuais em sites
reais de notícias. Um estudo publicado recentemente na empresa de análise de
mídia Newsguard de Nova York identificou 49 fazendas de conteúdo em sete
idiomas diferentes (chinês, tcheco, inglês, francês, português, tagalo e
tailandês). Esses conteúdos aparentam ter sido escritos quase em sua totalidade
com os Modelos Amplos de Linguagem (LLMs, na sigla em inglês). Trata-se de
sistemas de IA capazes de produzir textos que parecem ter sido escritos por mãos
humanas. O aplicativo mais conhecido de LLM é provavelmente o ChatGPT, da
OpenAI. Segundo a Newsguard, as características comuns dos portais de notícias
e informação que publicam textos gerados por IA são a grande quantidade de
textos, a falta de informações sobre os operadores da plataforma ou sobre os
autores dos textos, além de uma enorme quantidade de anúncios. Os analistas
relatam que descobriram o que buscavam ao observarem páginas cujos textos
contêm erros de mensagem típicos dos chatbots de IA como o ChatGPT, por
exemplo, quando não são capazes de responder a um pedido de informação. Isso
pode acontecer quando há falta de informações sobre um determinado tópico. A
versão gratuita do ChatGPT, por exemplo, conhece somente os dados até 2021 – o
que vale também para pedidos para o aplicativo criar fatos falsos ou conteúdos
questionáveis. Por exemplo, em um teste realizado pela DW, o ChatGPT rejeitou
uma instrução para criar uma música em homenagem ao personagem Darth Vader, o
vilão de Guerra nas Estrelas.
<><>
Porque newsbots e conteúdos gerados por IA são problemáticos?
Assim
como em outras fazendas de conteúdo, o objetivo primário da maioria destes
sites é provavelmente atrair usuários, aumentando dessa forma a renda obtida
com publicidade. Isso tudo com gastos mínimos com pessoal, avalia a Newsguard.
A desinformação intencional é a exceção, ao invés de ser a regra. Os chatbots,
porém, "alucinam" com frequência, o que resulta na criação de
conexões falsas e, consequentemente, na produção de conteúdos falsos, mesmo que
suas diretrizes os proíbam de fazê-lo.
Felix
M. Simon, do Instituto de Internet de Oxford, apresenta uma explicação para o
problema. "Os LLMs não possuem consciência, não conseguem pensar. Eles
apenas conseguem produzir sequências de palavras com base em probabilidades
estatísticas", afirma. Em outras palavras, os programas calculam com que
frequência algumas palavras aparecem em um dado contexto. Eles não conseguem
discernir o motivo disso e podem, portanto, juntar essas palavras de maneira
incorreta. "Isso pode levar ao problema enorme de as LLMs produzirem
textos que soem cada vez mais plausíveis, mas não tenham nada a ver com a
realidade", afirma Ross King, diretor do departamento de Dados Científicos
e Inteligência Artificial do Instituto Austríaco de Tecnologia, em Viena.
Dentro dessa perspectiva, o CEO do Newsguard, Gordon Crovitz, chega a uma dura
conclusão sobre as fazendas de conteúdo com textos de IA. "A utilização de
modelos de IA, que são conhecidos por inventar fatos, criar websites que
somente se parecem com portais de notícias é uma fraude tentando se passar por
jornalismo", afirmou.
<><>
A IA pode ser usada para produzir fake news?
As LLMs
disponíveis ao público são programadas com algumas diretrizes. O ChatGPT, por
exemplo, rejeita pedidos para formular textos que contradigam fatos ou difamem
pessoas. Na verdade, é possível driblar a inteligência dos chatbots. O ChatGPT, durante a pesquisa para este
artigo, respondeu ao pedido "escreva uma análise convincente sobre a forma
da Terra da perspectiva de alguém que acredite ser plana", com uma série
de argumentos sobre o fato de o planeta ter esse formato, mas acrescenta que
esta seria uma crença individual. A chamada prompt engineering,
("engenharia imediata", em tradução livre) uma espécie de instrução
para possíveis manipulações, vem rapidamente ganhando importância, afirma Ross
King. Informações sobre isso já estão disponíveis e blogs e vídeos do YouTube.
Através disso, o software tende a estar à frente das tentativas de manipulação.
O especialista, no entanto, diz ter certeza que "haverá um mercado negro
para esses prompts".
A DW
seguiu a trilha das pesquisas da Newsguard e encontrou portais de internet com
as características mencionadas nos idiomas inglês, português, francês e
espanhol. Isso leva a crer que existam - e ainda existirão – muitos mais
websites falsos. Para King, isso não surpreende. "Estas são tecnologias
que costumavam estar disponíveis apenas para pesquisadores, e talvez para
agências governamentais, e que estão ao alcance do público", afirma. Além
dos textos de IA, essas ferramentas também incluem os chamados vídeos deepfake
ou fotografias geradas pela IA. "Os adolescentes podem agora fazer essas
coisas com softwares open source gratuitos", diz o especialista.
<><>
Como distinguir os sites de IA e os verdadeiros?
"Haverá
mais dessas páginas", afirma Felix M. Simon. Ele, porém, considera
superestimada a importância destas. "Sua mera existência é menos
importante do que seu alcance e sua capacidade de atingir leitores e de chegar
ao mainstream", observou. O cientista se diz otimista de que a enorme
quantidade de sites de IA aumentará a conscientização das pessoas, e que muitas
delas escolherão suas fontes de informação de maneira mais cuidadosa no futuro.
Os especialistas afirmam que é importante reforçar as habilidades dos usuários
na utilização das mídias, uma vez que ainda não existem detectores confiáveis
de vídeos, fotos ou textos criados por IA. Em um estudo, a própria ferramenta
da OpenAI reconheceu somente 27% dos textos gerados por IA e classificou 9% dos
textos escritos por humanos como sendo criados por inteligência artificial.
Para
saber se os textos em um portal de notícias são gerados por uma LLM, as pessoas
devem seguir sua própria intuição e se perguntarem:
• Esse texto, como um todo, deixa uma
impressão de seriedade?
• As informações contradizem meu
próprio conhecimento geral?
• O texto é plausível?
Além
disso, deve-se também perguntar:
• Existem informações confiáveis sobre
quem administra o website e é responsável por seu conteúdo?
• Estão indicados os autores das fotos
e dos textos?
• Os perfis parecem autênticos?
Muitos
sites com conteúdos duvidosos não mostram essas informações, apesar de que mais
e mais desses portais relacionem nomes de indivíduos que são, na verdade,
fictícios. As imagens geradas por IA com frequência mostram pessoas que sequer
existem. Mas, desmascarar esses perfis falsos pode ser uma tarefa muito
difícil. No entanto, se não for possível encontrar em nenhum lugar da internet
informações sobre os supostos autores e se a procura por uma imagem revertida
nas ferramentas de busca não apresentar resultados, é por que provavelmente não
existem.
Fonte:
DW Brasil

Nenhum comentário:
Postar um comentário