A
personagem de IA que viraliza com críticas ao governo Lula e ao STF
Quando
o presidente dos Estados Unidos Donald Trump ameaçou impor
um tarifaço nas exportações do Brasil, um efeito quase imediato foi
um aumento da
popularidade do presidente Lula em pesquisas.
Lula se
colocou como crítico da medida e das ações de Trump. Meses depois o país
conseguiu fazer com que boa parte das tarifas fosse suspensa, com direito
a elogios do
americano ao presidente brasileiro.
Mas
isso não impediu que o episódio polarizasse as bases de eleitores de Lula e do
ex-presidente Bolsonaro.
Um lado
culpava o tarifaço pelas ações do filho do ex-presidente, Eduardo, que vinha
articulando nos EUA para que sancionassem ministros do Supremo
Tribunal Federal (STF).
De
outro, críticos do presidente, especialmente da ala bolsonarista, diziam que
Lula estava tentando fazer política partidária e rivalizar com Trump, ao invés
de negociar com
o líder americano.
Uma das
falas que se destacaram nas críticas a Lula nas redes sociais naquele momento
veio de uma voz e um rosto que não existem para além das redes sociais.
Era
Dona Maria, um avatar criado com inteligência artificial para representar uma
mulher negra, idosa, que fala palavrões e se diz revoltada com a situação do
país.
Um
vídeo sobre o tema publicado em sua conta no Instagram em 10 de julho de 2025
atingiu 8,8 milhões de visualizações e mais de 23 mil comentários.
"Eu
já estou revoltada com essa p*, Brasil. E o molusco (referência ao
presidente Lula) está calado. Agora que o povo está levando no r* com
taxa gringa, ele está calado igual siri na lata. Cadê o povo na rua? Cadê
panela batendo, cadê o grito, cadê a revolta? Ou todo mundo virou planta?
Porque eu tô aqui gritando e só escuto o vento e a taxa vindo."
Na
imagem, Dona Maria, criada com ferramentas do Gemini, a inteligência artificial
do Google, fala em um microfone, como se estivesse em um discurso, com plateia
ao fundo.
Os
comentários se dividem: alguns diziam que queriam vê-la discutindo com Lula,
outros reclamaram do excesso de palavrões. Um afirmou que ela "lavou a
alma dos brasileiros."
Ninguém
questionou o fato de Dona Maria não ser uma pessoa de verdade.
O viral
não foi exceção: a BBC News Brasil analisou dados da página e uma amostra de
mais de 50 mil comentários e identificou um engajamento próximo ao de políticos
tradicionais da direita brasileira, com uma média de mais de 2 mil comentários
por publicação.
Ao
menos 12 vídeos da página tiveram mais de 1 milhão de visualizações em menos de
um ano.
Além do
levantamento próprio, a reportagem também pediu à startup Zeeng, de análise de
dados, uma comparação com outros perfis sobre política na mesma rede social.
A média
de interações por publicação (comentários e curtidas) no Instagram desta
personagem de IA no último ano foi semelhante à de políticos de diferentes
espectros, como da senadora Damares Alves (Republicanos) e do deputado
Lindbergh Farias (PT).
Foi
também maior, no período, em média de interações por publicação, do que páginas
como a do ex-governador de Goiás e pré-candidato a presidente Ronaldo Caiado
(PSD), segundo este levantamento. Foram analisadas interações em publicações de
julho de 2025 até a primeira semana de abril deste ano.
Isso
não significa que esse engajamento seja recorrente ou permanente — as
publicações mais recentes da página obtiveram engajamento inferior à média, por
exemplo.
Uma
página que tenha um maior número de publicações, mas com menos engajamento,
apareceria em uma posição mais baixa neste ranking. Caso do perfil do
presidente Lula, por exemplo, que postou mais e com conteúdos mais
diversificados, como fotos, galerias e vídeos.
A
análise dos comentários nos posts da Dona Maria também revela interações com
políticos da direita e mensagens de apoio e críticas de usuários comuns.
Embora
o perfil de Dona Maria não faça apoio explícito a um candidato, as críticas
são, em sua maioria, direcionadas ao presidente Lula, ao atual governo e a
ministros do Supremo Tribunal Federal (STF).
O
criador do perfil, que diz trabalhar como motorista de aplicativo e usar a
página para complementar a renda, afirmou em entrevista à BBC News Brasil que
não tem candidato.
Mas diz
também que não teria dúvidas entre Lula (PT) e Flávio Bolsonaro (PL), que
aparecem como os nomes mais competitivos à presidência nas pesquisas de opinião
até agora: se pudesse, conta, faria campanha para o segundo de graça.
Para
especialistas ouvidos pela BBC News Brasil, esse tipo de conteúdo gerado por IA
poderá ser usado para mobilizar eleitores, abastecer candidatos com menos
recursos e mobilizar campanhas não oficiais, com críticas a candidatos que
poderiam violar regras do Tribunal Superior Eleitoral (TSE).
Há
também um risco, segundo os especialistas, de que esse tipo de conteúdo possa
confundir eleitores e até o Judiciário.
<><>
'O algoritmo entrega assuntos que geram revolta social'
O
perfil de Dona Maria apareceu pela primeira vez nas redes em junho de 2025.
Seu
criador é Daniel Cristiano dos Santos, 37 anos e morador de Magé (RJ), na
Baixada Fluminense. Daniel conta que trabalha como motorista de aplicativo e
que vê hoje a página como um complemento em sua renda e também um espaço para
expressar opiniões sem precisar mostrar o rosto.
Além de
ganhar com as visualizações em outras redes, ele afirma que também cria vídeos
de IA para empresas e ensina como fazê-los. O Instagram, diz, é a rede que
chama mais a atenção.
Os
primeiros vídeos públicos no canal mostram outros personagens de IA, sem
características definidas como a de Dona Maria. Orientado por outro criador de
conteúdo, que ele não quis divulgar o nome, Daniel decidiu trabalhar com um só
personagem, que ele conta ser inspirado na avó.
"Tinha
muitas cópias do meu vídeo. Não havia uma personagem específica para eu poder
ter direitos autorais. Ela (a personagem) tem características
da minha avó, por parte de mãe, que faleceu quando eu era moleque."
A
agressividade nas palavras, no entanto, não tem qualquer relação com a
personalidade da avó, mas com o que Daniel avalia que é uma linguagem
necessária para sobreviver nas redes sociais.
"Não
sabia mexer com o algoritmo de rede social e fui aprendendo com o tempo.
Assuntos que geram revolta social, o algoritmo entrega. Crítica a internet
entrega. Se fizer vídeo falando muito a verdade, mas sem aquele toque
apimentado, não entrega. Não adianta. O brasileiro está acostumado a ver
desgraça na internet. Pensei em dosar um pouco, mas passar uma mensagem."
Uma das
primeiras pautas dos vídeos foi o preço elevado de alimentos no supermercado.
No Facebook, o primeiro vídeo divulgado já atingiu dois milhões de
visualizações.
"Eu
não passo necessidade. Mas ao mesmo tempo eu batalho, corro atrás. Trabalho
desde 2019 como motorista de aplicativo aqui no Rio. O cara que trabalha e tira
um salário mínimo ou um pouco mais, ele sente o peso quando vai ao supermercado
e paga R$ 1.000 por metade de um carrinho de compras. É um negócio que bate,
sensibiliza qualquer um. Essa foi a minha visão ao criar o primeiro
vídeo."
Os
vídeos seguintes tratam de temas diversos, seja a megaoperação
policial no Rio, em outubro de 2025, que deixou mais de cem pessoas
mortas, ou o tarifaço de Trump sobre o Brasil.
"Muito
se falou que a culpa foi do Eduardo (Bolsonaro). Na minha visão não foi.
Porque na época Trump fez essa estratégia de taxa em vários países, não só no
Brasil. E na época Lula se recusou a sentar e dialogar com Trump", disse
ele sobre o vídeo mais visto da página (vale ressaltar que Lula e Trump se
encontraram pessoalmente em outubro e trocaram elogios, três
meses depois da publicação).
A
decisão sobre quais temas abordar nos vídeos não é aleatória. Santos diz que
pesquisa os assuntos que mais estão circulando nas redes sociais naquele dia,
com mais engajamento, e o mais popular vira a pauta.
Há
dias, inclusive, em que o tema foge da política. Um dos mais recentes, por
exemplo, trata do jogador Neymar. Durante a entrevista, Daniel mostrou também a
produção de um vídeo em que Dona Maria tem um dia como motorista de aplicativo,
é maltratada por uma passageira e então responde à altura.
<><
IA do Google e vídeos por R$ 20
Durante
a entrevista Daniel contou — e mostrou em sua tela compartilhada — que usa
ferramentas do Google para gerar o material: o Gemini e a plataforma Flow, que
permite criar sequências de vídeos curtos e depois combiná-los. O ChatGPT,
outra ferramenta popular de IA, também é usado para gerar os textos que vão
descrever como os vídeos devem ser feitos.
A BBC
News Brasil também testou essas plataformas. O Flow é o que garante que o
usuário pode recriar o vídeo diversas vezes até que fique bom o suficiente para
publicação, sem os erros estranhos que a IA costuma gerar, como movimentos sem
sentido ou falta de continuidade nas ações. Este processo consome créditos —
Daniel diz que gasta cerca de R$ 20 por vídeo.
"Comecei
a fazer um atrás do outro. E foi o que deu no que deu. Tem no Facebook, no
TikTok, no YouTube, no Kwai."
Ele
disse que sempre teve receio de gravar o próprio rosto para falar sobre
política.
"Por
meio da IA você consegue passar um pouco a revolta que sente, o que acontece
com o brasileiro. Hoje muitas pessoas me procuram para fazer vídeos porque elas
têm receio de gravar. Se veem na câmera e não acham legal."
Daniel
admite que já divulgou informações incorretas. Não fez retratação pública, mas
decidiu apagá-las.
"Quando
eu faço algum vídeo que não é verídico, eu nem me retrato, eu apago o vídeo. Já
aconteceu duas vezes. É aquele negócio de você fazer vídeos sozinho; você não
consegue checar certas informações. Foi um erro meu. Eu bati só com o que
estava rolando no Instagram. Mas aí, quando eu fui no Google, já bateu ali que
era totalmente ao contrário. Eu peguei e apaguei."
<><>
Página recebe patrocínio ou apoio de políticos?
Santos
diz que trabalha sozinho na página e que já foi procurado por casas de aposta,
mas recusou convites de publicidade.
"Ganho
pouco. Tenho uma visão de preferir não me corromper para não tirar a
característica do brasileiro que está cansado e quer melhorar o seu país."
Ele diz que faz os vídeos no tempo livre, mas que sua principal renda é como
motorista.
Daniel
conta que boa parte dos seguidores é de pessoas idosas, possivelmente de baixa
renda (o Instagram não entrega esse tipo de informação) e que muitas vezes
sequer percebem que a personagem é gerada por inteligência artificial. Não se
sentiria, portanto, à vontade para divulgar algum tipo de produto que os
prejudicasse, diz.
Ele
afirma que a visibilidade dos vídeos trouxe propostas diversas, tanto de
empresas quanto de pré-candidatos às eleições deste ano, sem citar nomes. E não
descarta trabalhar na eleição, a depender da proposta.
"Eu
não posso falar que vou dispensar serviço. Não vou, porque, querendo ou não, é
um trabalho."
A BBC
News Brasil não encontrou indícios de que a página receba algum tipo de
financiamento de políticos, embora haja figuras, tanto com cargo público quanto
influenciadoras digitais da direita, que comentam e reverberam este conteúdo.
<><>
'O ódio desperta a pessoa a se movimentar'
O
cientista político Hilton Fernandes, professor da Fespsp (Fundação Escola de
Sociologia e Política de São Paulo), se surpreendeu ao ver a qualidade dos
vídeos de IA e o efeito que poderiam ter nas eleições deste ano.
"A
primeira coisa que eu senti quando vi o vídeo é que era muito bem feito. O
texto é bom. É possível você imaginar uma pessoa falando com você,
pessoalmente, daquele jeito."
A
qualidade do material gerou desconfiança. "Parecia que tinha alguma coisa
por trás, algum tipo de orientação, dinheiro, recurso, às vezes, um
político", diz.
A BBC
News Brasil não encontrou evidências de que o criador do perfil trabalhe para
qualquer candidato ou partido. Também identificou ao menos um processo judicial
em que Daniel é mencionado e que o cita, de fato, como motorista de aplicativo.
Para
Fernandes, o risco mais relevante da Dona Maria não é a desinformação
convencional, ou seja, uma mentira factual que poderia ser verificada e
desmentida.
O
problema, diz, está em outra camada: o que o formato produz no espectador,
mesmo quando se sabe que a voz é gerada por máquina.
"O
fato de ela falar com raiva, usar alguns palavrões, indignação, falar alto,
falar rápido, tudo isso cria um clima um pouco desconfortável... se você não
acredita no vídeo, você sabe que é inteligência artificial, mas você fica ali à
exposição, porque você acaba ouvindo o discurso, inconscientemente, você começa
a associar aqueles temas com coisas negativas."
Segundo
Fernandes, isso tem implicações diretas para o comportamento eleitoral. O
conteúdo raivoso trabalha com dois mecanismos emocionais, diz: o entusiasmo,
que mobiliza quem quer que um candidato ganhe, e o desconforto, que afasta ou
radicaliza quem assiste.
"A
campanha negativa funciona. O ataque atrai, o ódio desperta a pessoa a se
movimentar. Muita gente que fala que quer que o PT saia, não importa quem é o
candidato. E isso tem a ver com esse sentimento de ser contra, de
oposição."
O
cientista político vê a IA como uma ruptura especialmente importante para
candidaturas menores. Antes, a barreira de entrada para produzir conteúdo
político de qualidade era financeira. Com a IA, isso pode ter mudado.
"A
inteligência artificial vai fazer muita diferença agora pra candidaturas
menores, que têm menos recursos, geralmente candidatos a cargos proporcionais.
Porque é muito mais barato. É muito mais barato produzir o texto, a arte, o
vídeo."
As
grandes campanhas também devem usar a tecnologia, diz o especialista, mas de
forma menos visível e até possivelmente irregular, sem deixar rastros.
"As
grandes campanhas talvez façam o uso de inteligência artificial no que a gente
chama de campanha de submundo. Aquela campanha que ninguém sabe de onde vem.
Fica muito escondida, não tem registro, não tem declaração no TSE. Às vezes,
pode até descobrir que se relaciona a um, uma campanha ou a um partido, mas a
gente não tem como provar."
Ele
avalia também que será desafiadora a responsabilização por esse tipo de
conteúdo.
"Com
a inteligência artificial eu não tenho essa identificação da pessoa. Então fica
muito mais difícil responsabilizar e, ao mesmo tempo, diminui demais o peso da
denúncia falsa, do texto falso, da desinformação... É muito mais fácil de
perdoar, porque parece uma brincadeira, parece algo que foi feito
espontaneamente pela internet, não tem alguém por trás."
Ele
compara a situação aos memes que surgiram nas eleições anteriores e a
dificuldade de enquadrá-los em algum tipo de irregularidade.
"Vai
ser a mesma coisa que aconteceu com os memes. É tanto volume que não tem como
tratar. O TSE vai tentar criar alguns exemplos, gerar constrangimento, mas não
vai conseguir acompanhar tudo."
<><>
Perfil opera em 'zona cinzenta', diz professora
Para
Yasmin Curzi, professora da FGV Direito Rio, perfis que usam IA como o de Dona
Maria operam em uma zona cinzenta.
Segundo
Curzi, as críticas ao governo, ao Supremo ou a políticos — como as reproduzidas
na página — não necessariamente fogem do escopo da liberdade de expressão.
Dependendo do contexto, gravidade e falseamento de informações, podem ser
passíveis de punição.
"O
problema começa quando esse conteúdo gerado por IA é vinculado sem nenhuma
rotulagem. Mesmo na pré-campanha é necessário que esse conteúdo esteja rotulado
como produzido por inteligência artificial", afirma.
A
professora explica que a nova resolução do TSE (23.755/2026) ampliou e
endureceu regras para deepfakes — montagens que simulam uma pessoa real dizendo
ou fazendo algo que nunca aconteceu, proibindo-as e impondo regras para o ciclo
eleitoral.
O caso
da Dona Maria, porém, é diferente: a personagem não tenta se passar por alguém
que existe.
O TSE
também prevê o dever de diligência dos candidatos. Isso significa que, se um
candidato compartilhar ou patrocinar conteúdo gerado por IA — mesmo que não o
tenha produzido —, ele assume corresponsabilidade.
"Se
o conteúdo tiver IA e não tiver rotulagem, se tiver veiculando fatos
inverídicos, esse engajamento gerado pelo candidato pode ser usado como
evidência pelo TSE de conhecimento prévio. E o candidato pode responder sim por
propaganda irregular", diz. "Pela jurisprudência do TSE, poderia
inclusive gerar configuração de abuso de poder político, dependendo do grau de
dano causado no equilíbrio do jogo eleitoral."
A
responsabilização, explica Curzi, pode ser múltipla: alcança o criador do
perfil, o candidato beneficiado (se demonstrado conhecimento prévio ou
financiamento), o partido ou coligação envolvidos e até a própria plataforma —
no caso, o Instagram —, se, após notificada pelo TSE, não remover o conteúdo
declarado irregular.
<><>
TSE não tem capacidade para enfrentar avalanche de conteúdo de IA, diz
especialista
Para
João Victor Archegas, coordenador de Direito & Tecnologia e GovTech do
Instituto de Tecnologia e Sociedade do Rio (ITS Rio), o caso da Dona Maria
antecede uma eleição em que a inteligência artificial deixou de ser problema
apenas das campanhas oficiais e passou a ser ferramenta ao alcance de qualquer
eleitor.
Archegas
conta que personagens criados com IA para espalhar mensagens políticas vinham
aparecendo cada vez mais no seu próprio feed.
"Não
tenho nenhum dado. É uma sensação generalizada que a gente tem no campo, de que
está aumentando consideravelmente nos últimos meses", diz.
O
pesquisador lembra que, nas eleições municipais de 2024, a enxurrada de IA que
se temia não veio. O Tribunal Superior Eleitoral (TSE) chegou a publicar,
naquele ano, resolução sobre o tema, com a proibição de deepfakes por
candidatos e regras para o uso de chatbots. Mas o número de casos que
efetivamente chegaram à Justiça Eleitoral foi pequeno.
"Foi
muito pouco. Se esperava uma onda, um tsunami no Brasil, como tinha acontecido,
por exemplo, na Índia um ano antes", afirma. "No Brasil, chegou como
uma marola."
Para
Archegas, 2026 será diferente: a tecnologia ficou barata, acessível e
replicável.
"Os
sistemas de inteligência artificial hoje permitem fazer o que esse sujeito
ensina na prática. Com um pouquinho de tempo, você cria uma persona que pode
replicar em vários conteúdos. Não precisa nem pensar no texto, pode usar o
ChatGPT para criar o roteiro. E depois joga numa inteligência artificial que
cria o vídeo."
O fluxo
que hoje é feito por uma única pessoa custaria milhões de reais há poucos anos,
diz o pesquisador.
"Há
duas décadas se gastariam milhões de reais para contratar isso numa
consultoria. Porque você teria alguém especializado em produzir o roteiro e
pensar em uma linguagem que faça sentido para aquela rede social, que aperte os
botões certos e leve aquele conteúdo a mais pessoas."
O
risco, na avaliação dele, não está apenas no volume, mas na construção de uma
identidade afetiva entre o público e o avatar.
"Vai
criando essa identidade e isso vai abrindo espaço na mente das pessoas,
deixando-as talvez até mais vulneráveis. E eventualmente, durante as eleições,
abre-se caminho para espalhar informações completamente inventadas e falsas.
Nada impede que esse movimento aconteça em algum ponto. E aí as coisas começam
a ser bem complexas: você criou uma personalidade na qual as pessoas
confiam."
Conforme
a exposição aumenta, diz Archegas, a fronteira entre o avatar e uma pessoa real
pode se apagar na cabeça do usuário da rede social.
"Conforme
você vai sendo exposto a esse conteúdo diversas vezes, começa a naturalizá-lo e
não vê mais uma diferença entre um avatar criado por IA e uma pessoa revoltada
com a situação do país. As coisas começam a se confundir e o impacto no
discurso público acaba sendo exatamente o mesmo. Esse é o perigo, me
parece."
Para o
pesquisador, o TSE não tem hoje capacidade de reagir a esse tipo de conteúdo —
e essa é a parte mais grave do problema.
"Acho
que isso é o mais aterrorizante. O tribunal estava esperando algo muito mais
profissional e que viesse de um ponto de vista partidário, inclusive. Partidos
apoiando seus candidatos a produzir esse tipo de conteúdo, que é muito mais
fácil de fiscalizar e, eventualmente, até aplicar sanções. Não é o caso com
esse fenômeno, porque a gente está falando de um eleitor que pode simplesmente
aprender a fazer algo extremamente profissional."
Um dos
riscos centrais, segundo Archegas, é o uso da tecnologia nos últimos dias antes
do voto — o TSE aprovou neste ano uma medida que proíbe o uso de IA na
propaganda eleitoral nas 72 horas que antecedem a eleição e nas 24 horas
seguintes.
"Essa
é a janela de informação da vontade do eleitor, e eu, TSE, não quero que ela
seja falseada por esse ciclo de inteligência artificial. E 24 horas depois
porque o gato escaldado tem medo de água fria. É uma questão que remete ao que
aconteceu no dia 8 de
janeiro e à possibilidade de você gerar um caos em relação aos
resultados das eleições com inteligência artificial, que possa levar as pessoas
a cometerem atos de violência."
Diante
do limite institucional da Justiça Eleitoral, Archegas defende que a saída
prática passa pelas plataformas, como Instagram, TikTok e YouTube.
"Mapear
essas contas, entender como elas podem participar de uma eleição no Brasil em
2026 e, percebendo algum sinal de irregularidade ou de tentativa de falsear a
construção da vontade do eleitorado, que possam atuar para tentar conter um
pouco desse processo que parece inevitável."
Procurado,
o TSE diz que "não se manifesta sobre temas ou casos que possam vir a ser
ou são objetos de análise na Justiça Eleitoral" e que "isso é feito
somente nos autos processuais."
Fonte:
BBC News Brasil

Nenhum comentário:
Postar um comentário