IA
adiciona novas camadas de risco à desinformação nas eleições 2026, diz
pesquisadora
A
desinformação eleitoral não é novidade no Brasil. Desde pelo menos 2018,
campanhas digitais, disparos em massa, boatos em aplicativos de mensagem e
disputas judiciais sobre conteúdos falsos fazem parte do cenário político. O
que muda, com a proximidade das eleições deste ano, é a incorporação acelerada
da inteligência artificial (IA), sobretudo a generativa, tanto na produção de
textos, imagens, vídeos e áudios quanto no próprio consumo e checagem de
informações.
Ferramentas
de IA já estão embutidas em plataformas centrais para o debate público, como
buscadores, a exemplo do Google, redes sociais e aplicativos de mensagem.
Pesquisa recente do InternetLab mostra que metade dos usuários de WhatsApp
afirma já ter utilizado algum recurso de inteligência artificial no aplicativo
poucos meses após o lançamento da Meta IA no Brasil, um indício da velocidade
com que essas tecnologias se disseminam.
No
mesmo levantamento, parte significativa dos entrevistados disse acreditar já
ter recebido conteúdos políticos ou eleitorais produzidos com IA sem saber.
Outra parcela admite não conseguir identificar quando imagens, vídeos ou áudios
são sintéticos. Segundo relatório do InternetLab, 99,1% dos respondentes que
utilizam aplicativos de mensagem no Brasil afirmam usar o WhatsApp, o que faz
com que a circulação de conteúdos políticos nesses ambientes seja ampla — e por
vezes pouco transparente.
Desde
2022, o Tribunal Superior Eleitoral (TSE) vem ampliando seus mecanismos de
enfrentamento à desinformação, com parcerias com plataformas digitais e
resoluções que permitem a remoção célere de conteúdos comprovadamente falsos.
Em 2023 e 2024, o tribunal passou a tratar de forma mais explícita os impactos
da IA generativa, incluindo exigências de rotulagem de conteúdos sintéticos e a
responsabilização de candidatos e partidos pelo uso de deepfakes.
Para
2026, ministros do TSE já sinalizam a intenção de atualizar novamente as regras
eleitorais, ainda que especialistas apontem limitações práticas para fiscalizar
campanhas informais e redes de apoio não oficiais.
Para
entender como essa combinação entre desinformação e inteligência artificial
pode impactar as eleições de 2026, a Agência Pública conversou com Heloisa
Massaro, diretora de Pesquisa e Operações do InternetLab. Advogada e mestre em
Sociologia do Direito pela Universidade de São Paulo (USP), Massaro coordena
estudos sobre desordem informacional, comportamento dos usuários e regulação de
plataformas digitais.
Mais do
que ampliar o volume de conteúdos enganosos, a chegada da IA generativa às
eleições tende, segundo Massaro, a aprofundar um ambiente já marcado por
cansaço informacional e desconfiança.
>>>>
Leia a entrevista abaixo:
- O problema da
desinformação eleitoral não é novo. O que muda quando passamos a falar de
IA, sobretudo generativas? Quais são as diferenças chave em relação aos
ciclos eleitorais anteriores?
No
InternetLab, a gente fez uma pesquisa que rodou entre [20]23 e [20]24,
finalizou agora esse ano em 2025, que chama “Vetores e Implicações da Desordem
Informacional na América Latina”. A gente tentou olhar, a partir da perspectiva
do usuário, como que as pessoas se relacionam com informação, como que elas
consomem informação, como que elas checam informação, como que elas constroem
confiança sobre informação e sobre fontes. Isso vem um pouco de uma leitura
nossa, de que faltava essa perspectiva do usuário na discussão sobre
desinformação.
Existe
todo um campo que vai estar estudando psicologia do consumo de informação, etc.
Mas, de forma geral, principalmente na discussão regulatória, faltava a gente
sentir a falta desses dados, sobre como as pessoas se relacionam com a
informação. Quando a gente fez essa pesquisa, coletou esses dados, a
inteligência artificial generativa ainda estava entrando de forma incipiente.
Então, a gente ainda não tinha a IA generativa incorporada em muitos
aplicativos do cotidiano das pessoas como é hoje. Então, [hoje] a gente tem ela
incorporada no próprio WhatsApp, na barra de busca, na ferramenta de busca do
Google e diversos outros.
Existe
um ambiente generalizado de desconfiança e saturação. Então, eu acho que para
resumir um pouco, as pessoas, de forma geral, elas se sentem cansadas do
excesso de informação e elas desconfiam de praticamente tudo que circula. E,
por um lado, obviamente, isso significa que as pessoas desconfiam de qualquer
informação e elas vão checar. Por outro, isso significa também que elas
desconfiam, inclusive, das coisas verdadeiras. Aí entra a camada de como as
pessoas checam, porque isso importa. A gente tem um ambiente muito diverso, eu
diria, onde as pessoas checam de maneiras muito distintas, e a partir das suas
próprias convicções, das suas próprias ideologias, das suas próprias redes de
confiança, das suas próprias redes de afinidade intelectual, etc. Muitas vezes
elas vão checar com influenciador, às vezes vão checar com pessoas próximas, às
vezes vão checar em jornais, revistas, enfim.
A gente
coletou esse dado de que, de fato, as pessoas consomem a mesma informação em
mais de um lugar. Então, esse processo de checagem acontece. A questão é onde
está acontecendo essa checagem e qual é essa fonte confiável. E, bom, daí entra
a questão da inteligência artificial generativa, porque a gente perguntou para
as pessoas onde elas confiam mais para checar. A gente tinha, no Brasil, uma
predominância da confiança nas plataformas de busca, então as plataformas de
busca eram as primeiras colocadas. E é muito curioso isso, porque quando as
pessoas respondem “plataformas de busca”, isso pode significar muitas coisas.
Pode significar que o que importa é a ordem do resultado. Pode significar que o
que importa é um resultado que tem mais afinidade com ela ou não. Ou se o que
importa é, o resumo que aparece.
Dado
esse contexto, quando a gente olha para a introdução de IA generativa,
principalmente em ferramentas que são muito usadas no cotidiano e que são
confiadas pelas pessoas, como plataformas de busca, que hoje em dia a gente tem
um resumo ali para muitas das perguntas, existe um potencial de que essa
inteligência artificial generativa, vá se colocando cada vez mais como também
um meio muito central para consumo e checagem de informação. E isso coloca
algumas questões que eu acho que ainda, enfim, não estão definidas.
- Que tipo de
questões?
Por um
lado, num ambiente que as pessoas se mostram muito confusas e parece que está
todo mundo buscando um norte, um guia para onde checar a informação, quando a
gente pensa em ferramentas que trariam ali alguma resposta, é óbvio que, a
depender de quais são os dados que estão sendo usados para treinar essa
ferramenta, poderia haver um potencial de veiculação de informações mais
confiáveis do que no ambiente onde as pessoas se sentem perdidas. No entanto,
por outro lado, dependendo da forma como são usadas essas fontes, como é feita
essa calibragem, você também tem risco de vieses, de informações importantes
ficarem de fora.
E, num
ambiente político-eleitoral, isso é muito sensível, porque vai depender do que
as pessoas vão perguntar sobre um candidato ou sobre outro, o que essa
inteligência artificial vai estar desenhada e calibrada para poder falar ou não
poder falar, como essa informação vai ser passada. Então, isso coloca uma série
de novas camadas, e eu acho que ainda existe muita incerteza sobre como isso
vai se dar. Por outro lado, quando a gente está pensando em conteúdos
produzidos por IA generativa, está tudo no mesmo campo, mas é uma outra
discussão. Nesse sentido, uma das coisas que a gente também conseguiu coletar
nessas pesquisas, [é que] já aparece essa mesma desconfiança e saturação que
aparece para informações em geral, aparece com relação a vídeos e fotos, conteúdos
produzidos por IA. Então, potencialmente, tudo pode ser produzido por IA,
inclusive coisas que não são [produzidas]. Essa desconfiança e essa
potencialidade de tudo ser falso ou gerado por IA, ela mesma se torna uma
ferramenta de disputa política. A gente vai ter vários políticos falando que
vídeos que muitas vezes são verdadeiros foram gerados por IA, a gente vai ter
políticos falando que coisas são verdadeiras, são falsas. Isso entra na própria
disputa e complica ainda mais esse cenário de desconfiança generalizada.
- Quando falamos
em IA generativa nas eleições de 2026, que tipos de uso dessa tecnologia
você considera mais prováveis no contexto brasileiro?
Existe
um potencial do uso dessas ferramentas para consumo de informação em geral. Eu
gosto de entender tecnologia como algo que é entrelaçado com a vida das
pessoas, que não é algo à parte. Então, se a engenharia ativa passa a ser, de
alguma forma, usada para a pessoa no cotidiano, seja para ajudar ela a escrever
mensagens, seja quando ela quer perguntar alguma coisa, mas é muito possível
que ali no ambiente de eleições ela também possa vir a ser essa ferramenta.
Por um
lado, existe essa potencialidade de se tornar um espaço de busca de informações
político-eleitorais, e daí eu acho que existe um espaço grande para a
imaginação de que tipo de busca, desde número de candidato até local de
votação, até informações oficiais, de como regularizar títulos, obrigação de
votar, perguntas sobre candidatos, enfim. Não só para checagem, mas talvez até
para consumo de informação mesmo. E, por outro lado, existe a potencialidade de
uso pelas próprias campanhas. A gente tem regulações do próprio Tribunal
Superior Eleitoral sobre o uso de inteligência artificial, obrigações de
rotulagem, vedação a determinados tipos de uso. Mas pensando em potenciais
usos, eu acho que uma coisa é não demonizar uma ferramenta por ela mesma. É
óbvio que a inteligência artificial generativa pode ser muito útil para
campanhas, e principalmente para campanhas menores, [como] reduzir custos para
a produção de materiais, ou de textos, ou até, enfim, de organização de
informações.
- IAs podem se
tornar espaço de busca de informações político-eleitorais, avalia
pesquisadora
Se a
gente está pensando em uma campanha ali que quer desenhar um santinho, não tem
dinheiro para um designer, usa uma ferramenta de inteligência artificial
generativa, é algo que pode ser um instrumento para a campanha. Por outro lado,
assim como essas outras tecnologias, ela obviamente também pode ser usada para
produção de material enganoso ou falso, e a gente tem visto muito isso nos
últimos tempos. E daí não só por campanhas, mas muitas vezes por apoiadores,
dentro do próprio debate público em geral, seja a produção de conteúdos para
enganar, ou às vezes a produção de algum conteúdo em algum contexto para fazer
brincadeira ou piada, mas que também sai daquele contexto e se torna, de alguma
forma, desinformativo também.
- Quando vídeos,
áudios e imagens se tornam cada vez mais realistas, como distinguir o que
é falso do que é verdadeiro? E como essa incerteza contribui para uma
erosão mais ampla da confiança no debate público e nas instituições?
É o
fato de que existem coisas falsas circulando em termos de imagens e vídeos
gerados por inteligência artificial generativa, e o fato de que esses materiais
se assemelham cada vez mais a fotos e vídeos reais Então, se torna cada vez
mais difícil de distinguir, enquanto uma pessoa leiga. Isso tem o potencial de
aprofundar essa desconfiança generalizada sobre tudo.
Quando
se tem uma desconfiança generalizada sobre tudo, isso significa que, inclusive,
os conteúdos verdadeiros são submetidos a esse elemento de desconfiança. E daí,
a forma de validação, inclusive a partir do que a gente observa nas nossas
pesquisas sobre desinformação, ela passa a ser de alguma forma muito casuística
e personalizada. Ela vai depender do que a pessoa confia, em quem ela confia,
da ideologia que ela tem, de alguma afinidade política. Isso, de certa forma, a
gente poderia dizer que acaba sendo quase uma erosão dos mecanismos que, de
alguma forma, validavam ou geravam confiança.
Em
informação e em conteúdo, e cada um passa a construir seu próprio ecossistema
de validação ou de confiança em determinado tipo de conteúdo, de vídeo, de
imagem. Então, existe esse potencial, que inclusive a gente já vem observando.
Uma vez que elas passam a desconfiar de tudo, inclusive das coisas verdadeiras,
a própria narrativa do que é verdadeiro, do que é falso, do que é gerado por IA
e do que não é, se torna ferramenta de disputa política por si só.
- Até pouco tempo
atrás, vídeos e imagens tinham um peso maior como prova. Hoje, com a
popularização dos deepfakes, surge um dilema: como alertar para conteúdos
manipulados sem abrir espaço para que provas reais sejam desacreditadas
sob o argumento de que “tudo pode ser IA”? Esse uso estratégico da dúvida
já aparece nas pesquisas sobre desinformação eleitoral?
É muito
difícil você captar esse uso estratégico da dúvida na perspectiva do usuário,
[de] como ele vê isso, como ele não vê não. Isso aparece muito fortemente,
inclusive, antes da inteligência artificial. Quando a gente começou a discutir
desinformação, lá em 2018, e a gente fazia discussões no âmbito da justiça
eleitoral, pedidos de remoção de conteúdo. Um dos diagnósticos é que, como o
tempo dos conteúdos online hoje é muito rápido, ainda que o tempo da justiça
eleitoral seja muito rápido, um pedido de remoção de conteúdo, às vezes, ele
vai chegar muito tarde para um conteúdo, e o conteúdo já se espalhou.
Principalmente
pensando em propaganda eleitoral. E um dos diagnósticos que a gente fez era que
esse acionamento do judiciário para a declaração de alguma coisa falsa por
determinação de remoção de determinado conteúdo, ele funcionava muito mais como
uma validação da narrativa daquele candidato que ganhava a disputa judicial e
como uma forma de fazer essa disputa de narrativa do que pela remoção em si.
Quem vai fazer esse argumento muito bem, vai ser o Francisco Brito Cruz no
livro Novo Jogo, Velhas Regras. E é exatamente essa instrumentalização da
discussão judicial sobre o que é verdadeiro ou falso, sobre o que tem que ser
removido ou não.
Desde
essa época a gente via a própria discussão sobre desinformação, sendo
manipulada ou instrumentalizada politicamente. Candidatos chamando veículos de
mídia reconhecidos, muito bem estabelecidos, como veículos que disseminavam
desinformação, notícias falsas, como uma forma da disputa de narrativa. A
gente, inclusive, já viu o próprio presidente Donald Trump algumas vezes
falando que conteúdos, que depois foram provados serem verdadeiros, fotos e
vídeos, eram construídos por inteligência artificial. Quando você tem essas
figuras públicas também, que estão semeando dúvidas sobre tudo, o tempo todo,
isso vai reforçar esse ambiente de desconfiança generalizada, as pessoas ficam
procurando sinais. Ou elas vão se aliar ou vão construir suas formas de verificação
e checagem a partir dessas afinidades, que podem ser múltiplas e podem ser
político-ideológicas.
- A legislação
brasileira está preparada para lidar com campanhas que usem IA de forma
indireta, por meio de influenciadores, páginas supostamente orgânicas ou
redes de apoio informal? Onde estão hoje as principais lacunas?
Eu
diria que a legislação eleitoral brasileira evoluiu muito nos últimos anos. A
gente pode até dizer que, — obviamente não tem o dado de todos os países —,
talvez tenha sido uma das que mais se adaptou nos últimos anos às campanhas
digitais.A gente tem regras sobre uso de inteligência artificial generativa ou
não, quando pode, quando não pode, quando é obrigatório fazer rotulagem, enfim,
quais regras tem que seguir. A gente tem regras sobre vedação de contratação de
influenciadores, a gente também vai ter regras sobre, inclusive sobre
desinformação, obrigação de campanhas, de garantir que as informações são
verdadeiras, etc.
O
primeiro ponto é esse, de que a justiça eleitoral brasileira avançou muito, e
eu acho que a gente tem que reconhecer isso. Por outro lado, acho que também
vale mencionar que, em comparação internacional, a legislação eleitoral
brasileira é uma das mais extensivas em termos de regulação. A legislação
eleitoral brasileira regula muitas coisas em muitas minúcias, com o objetivo de
garantir um pleito íntegro e com igualdade de distâncias entre os candidatos.
[Mas] persistem desafios muito mais relacionados à forma de fazer política e
campanha, que se transformou radicalmente, do que propriamente uma falta de
inação ou de atualização da própria justiça eleitoral, e que eu acho que são
desafios muito difíceis de endereçar. É exatamente essa questão sobre quando
você tem conteúdos que estão circulando, que não são necessariamente produzidos
ou controlados pela campanha.
Antigamente,
a gente tinha as campanhas que faziam seus programas eleitorais, que passavam
no horário eleitoral gratuito, elas distribuíam os panfletinhos. Hoje em dia, a
campanha vai continuar produzindo seu material, inclusive online, mas os
eleitores e as pessoas que são apoiadores, e daí desde pequenos eleitores até
grandes influenciadores, passam a compor essa dinâmica de campanha e de
comunicação. E o quanto essas pessoas estão coordenadas ou não com a campanha é
uma incógnita.
Essa é
uma questão que é muito difícil de endereçar, porque ela envolve um desenho de
um arcabouço que consiga, ao mesmo tempo, garantir que campanhas não sejam
indevidamente penalizadas, por atos, ações ou conteúdos que elas têm
completamente zero controle, elas nem sabiam que circulavam, mas, ao mesmo
tempo, garantir algum nível aí de accountability quando a gente, para evitar
situações onde campanhas mobilizem conteúdos que seriam ilegais de forma
lateral. Exatamente o que é difícil é você conseguir provar esse vínculo.
Porque uma responsabilidade objetiva, ou algum tipo de responsabilização da
campanha por qualquer coisa que circule sobre, que possa de alguma forma
beneficiá-la, você sempre corre um risco de gerar um efeito oposto, de ter
pessoas tentando sabotar a candidatura ao produzir coisas que vão vão levar a
candidatura a ser penalizada, ou apoiadores que não têm nenhuma noção e que
fazem coisas, e a campanha desmonte.
Então,
de fato, ainda é um dos grandes desafios que permanece. Eu acho que a justiça
eleitoral tem tentado endereçar da melhor forma possível muitas das questões,
seja em ações que de alguma forma estão analisando esse vínculo, ou até mesmo
as sinalizações eventualmente que os próprios políticos e candidatos deem,
sejam regras um pouco mais amplas que podem cobrir influenciadores — o que é
importante, mas é um desafio que tem muito muito a ver com esses novos formatos
de campanha.
- Na sua
avaliação, nós estamos preparados para isso? Se não, o que é que deveria
ser feito? Existem caminhos que poderiam amenizar esses desafios?
Eu acho
que essa é a pergunta que todos nós gostaríamos de conseguir responder. Eu acho
muito difícil falar que a gente está 100% preparado. Até num ambiente de
mudanças muito rápidas, as coisas aparecem, são muito novas. Às vezes, a gente
imagina que a campanha eleitoral vai acontecer de um jeito; de repente, tem
outros usos. Eu acho o exemplo de 2018 muito bom, porque foi uma época em que a
gente esperava uma campanha com muito uso de impulsionamento de conteúdo. Foram
as primeiras angulações que apareceram na legislação brasileira, um pouco por
conta de 2016, no Reino Unido e nos Estados Unidos, mas ela foi, no Brasil, uma
eleição muito pautada pelo uso de aplicativos de mensagem, que tinha sido algo
muito difícil de prever naquele momento, daquela forma.
As
coisas se movimentam muito rápido nesse ambiente de inovação tecnológica.
Então, eu acho que a gente nunca vai estar 100% preparado. Eu acho que, por um
lado, a gente tem ferramentas muito importantes no direito eleitoral
brasileiro, e a gente tem que reconhecer a robustez do sistema eleitoral
brasileiro, das regras que se tem e tudo mais. Por outro lado, é óbvio que
ainda existem muitos espaços que seriam importantes, e daí eu acho que,
principalmente no campo de regulação de plataformas, é um tema que a gente não
conseguiu avançar no Brasil nos últimos anos. A gente teve aí algumas mudanças
com a decisão recente do STF sobre a constitucionalidade do artigo 19, mas que
ainda, eu diria, está um pouco distante de ser uma regulação de plataformas,
porque ainda é muito focada nos conteúdos e pouco voltada para as estruturas e
arquiteturas em si mesmas.
Então,
ainda tem um pouco essa lacuna de fazer uma discussão sobre regulação de
plataformas e pensar também o que isso significa no ambiente eleitoral. A
própria questão da inteligência artificial, que já traz uma outra camada para
além de regulação de plataformas, porque a gente já está falando de serviços
que operam de formas muito diferentes e que, de alguma forma, te entregam
conteúdo, e não mais apenas espaço para a circulação do conteúdo do usuário.
Fonte:
Por Guilherme Cavalcanti, da Agencia Pública

Nenhum comentário:
Postar um comentário