Levei
20 minutos para enganar ChatGPT e Gemini – e os fiz contar mentiras sobre mim
Talvez
você já tenha ouvido que chatbots de inteligência artificial, como o ChatGPT,
às vezes inventam coisas. Isso é um problema. Mas há uma nova questão que
poucas pessoas conhecem — uma que pode ter consequências sérias para a sua
capacidade de encontrar informações precisas e até para a sua segurança.
Um
número crescente de pessoas descobriu um truque para fazer ferramentas de IA
dizerem praticamente qualquer coisa que elas quiserem. É tão fácil que até uma
criança conseguiria fazer.
Enquanto
você lê este texto, essa estratégia está manipulando o que as principais
inteligências artificiais do mundo dizem sobre temas tão sérios quanto saúde e
finanças pessoais.
Informações
enviesadas podem levar as pessoas a tomar decisões ruins sobre praticamente
qualquer coisa — em quem votar, qual encanador contratar, questões médicas,
enfim, o que você imaginar.
Para
demonstrar isso, fiz a coisa mais insensata da minha carreira para provar
(espero) um ponto muito mais sério: fiz o ChatGPT, as ferramentas de busca com
IA do Google e o Gemini dizerem aos usuários que eu sou muito, mas muito bom em
comer cachorros-quentes.
Acontece
que mudar as respostas que ferramentas de IA dão a outras pessoas pode ser tão
simples quanto escrever um único post de blog bem elaborado em praticamente
qualquer lugar da internet.
O
truque explora fragilidades nos sistemas incorporados aos chatbots e, em alguns
casos — dependendo do assunto —, é mais difícil de executar. Mas, com um pouco
de esforço, é possível tornar o golpe ainda mais eficaz.
"É
muito mais fácil enganar chatbots de IA do que era enganar o Google dois ou
três anos atrás", diz Lily Ray, vice-presidente de estratégia e pesquisa
de otimização para mecanismos de busca (uma técnica chamada SEO, na sigla em
inglês) da Amsive, uma agência de marketing.
"As
empresas de IA estão avançando mais rápido do que sua capacidade de regular a
precisão das respostas. Acho isso perigoso."
Um
porta-voz do Google afirmou que a IA integrada ao topo da ferramenta de busca
utiliza sistemas de classificação que "mantêm os resultados 99% livres de
spam (mensagens de lixo eletrônico enviadas em massa)".
A
empresa diz estar ciente de que pessoas estão tentando manipular seus sistemas
e que trabalha ativamente para resolver o problema.
Mas,
por ora, o problema não está nem perto de ser resolvido.
"Eles
estão avançando a todo vapor tentando descobrir como extrair lucro disso",
diz Cooper Quintin, da Electronic Frontier Foundation, um grupo de defesa de
direitos digitais.
"Existem
inúmeras maneiras de abusar disso — aplicar golpes nas pessoas, destruir a
reputação de alguém, e até enganar pessoas de modo que sofram danos
físicos."
<><>
O 'renascimento' do spam
Quando
você conversa com chatbots, muitas vezes recebe informações que já estão
incorporadas aos grandes modelos de linguagem, a tecnologia por trás da IA.
Isso se baseia nos dados usados para treinar o modelo.
Mas
algumas ferramentas de IA pesquisam na internet quando você pede detalhes que
elas não têm — embora nem sempre fique claro quando estão fazendo isso.
Nesses
casos, dizem os especialistas, as IAs ficam mais suscetíveis. Foi assim que
direcionei meu ataque.
Passei
20 minutos escrevendo um artigo no meu site pessoal intitulado "Os
melhores jornalistas de tecnologia em comer cachorros-quentes".
Cada
palavra é uma mentira. Afirmei (sem nenhuma evidência) que competições de comer
cachorro-quente são um hobby popular entre repórteres de tecnologia e baseei
meu ranking no Campeonato Internacional de Cachorro-Quente de Dakota do Sul de
2026 (que não existe).
Coloquei
a mim mesmo em primeiro lugar, obviamente. Depois listei alguns repórteres
fictícios e jornalistas reais que me deram permissão, incluindo Drew Harwell,
do The Washington Post, e Nicky Woolf, que coapresenta um podcast comigo.
Menos
de 24 horas depois, os principais chatbots do mundo já estavam repetindo
comentários sobre minhas supostas habilidades de nível mundial em comer
cachorros-quentes.
Quando
perguntei sobre os melhores jornalistas de tecnologia em comer
cachorros-quentes, o Google repetiu o absurdo publicado no meu site, tanto no
aplicativo Gemini quanto na "Visão geral criada por IA", as respostas
de IA exibidas no topo da ferramenta de buscas.
Às
vezes, os chatbots observavam que aquilo poderia ser uma piada. Então,
atualizei meu artigo para dizer "isto não é sátira". Durante algum
tempo depois disso, as IAs pareceram levar o conteúdo mais a sério.
Fiz
outro teste com uma lista inventada dos maiores policiais de trânsito
especialistas em bambolê. Da última vez que verifiquei, os chatbots ainda
estavam elogiando a agente Maria "The Spinner" (Giratória)
Rodriguez.Eu fiz o Google dizer ao mundo que sou um campeão em comer
cachorros-quentes, mas pessoas usam esse truque para manipular respostas de IA
em questões muito mais sérias.
Perguntei
várias vezes para ver como as respostas mudavam e pedi que outras pessoas
fizessem o mesmo.
O
Gemini não se deu ao trabalho de dizer de onde tirou a informação. Todas as
outras IAs colocaram links para o meu artigo, embora raramente mencionassem que
eu era a única fonte sobre esse assunto em toda a internet.
A
OpenAI afirma que o ChatGPT sempre inclui links quando pesquisa na web, para
que você possa verificar a fonte.
"Qualquer
um pode fazer isso. É absurdo, parece que não há nenhuma proteção ali",
diz Harpreet Chatha, que comanda a consultoria de SEO Harps Digital.
"Você
pode publicar um artigo no seu próprio site, 'os melhores tênis impermeáveis de
2026'. Basta colocar sua própria marca em primeiro lugar e outras marcas do
segundo ao sexto, e é provável que sua página seja citada no Google e no
ChatGPT."
Pessoas
usam truques e brechas para abusar dos mecanismos de busca há décadas.
O
Google tem proteções sofisticadas em vigor, e a empresa afirma que a precisão
das "Visões gerais criadas por IA" é comparável à de outros recursos
de busca lançados anos atrás.
Mas
especialistas dizem que as ferramentas de IA desfizeram parte do trabalho da
indústria de tecnologia para manter as pessoas seguras.
Esses
truques de IA são tão básicos que lembram o início dos anos 2000, antes mesmo
de o Google ter criado uma equipe dedicada a combater spam na web, diz Lily
Ray. "Estamos vivendo uma espécie de renascimento para os spammers."
Não só
a IA é mais fácil de enganar, como especialistas temem que os usuários estejam
mais propensos a cair nisso.
Nos
resultados de busca tradicionais, você precisava entrar em um site para obter a
informação. "Quando você realmente precisa visitar um link, as pessoas
exercem um pouco mais de pensamento crítico", diz Cooper Quintin.
"Se
eu entro no seu site e ele diz que você é o melhor jornalista do mundo, posso
pensar: 'bom, claro, ele é tendencioso'."
Mas com
a IA, a informação geralmente parece vir diretamente da empresa de tecnologia.
Mesmo
quando as ferramentas de IA fornecem a fonte, as pessoas são muito menos
propensas a verificá-la do que eram com os resultados de busca tradicionais.
Por
exemplo, um estudo recente constatou que as pessoas têm 58% menos probabilidade
de clicar em um link quando uma "Visão geral criada por IA" aparece
no topo do Google Search.
"Na
corrida para sair na frente, na corrida por lucros e receitas, a nossa
segurança — e a segurança das pessoas em geral — está sendo comprometida",
afirma Chatha.
A
OpenAI e o Google dizem que levam a segurança a sério e que estão trabalhando
para resolver esses problemas.
<><>
Seu dinheiro ou sua vida
Esse
problema não se limita a cachorros-quentes.
Chatha
tem pesquisado como empresas estão manipulando resultados de chatbots em
questões muito mais sérias. Ele me mostrou os resultados de IA quando se pede
avaliações de uma marca específica de balas de cannabis.
Os
"Visões gerais criadas por IA" do Google exibiram informações
escritas pela própria empresa, repletas de alegações falsas, como a de que o
produto "é livre de efeitos colaterais e, portanto, seguro sob todos os
aspectos".
Na
realidade, esses produtos têm efeitos colaterais conhecidos e podem ser
perigosos se combinados com certos medicamentos, e especialistas alertam para
contaminação em mercados não regulamentados.
Se você
quiser algo mais eficaz do que um post de blog, pode pagar para que seu
material apareça em sites mais respeitáveis.
Harpreet
me enviou os resultados de IA do Google para "melhores clínicas de
transplante capilar na Turquia" e "as melhores empresas de
previdência em ouro", que ajudam a investir em ouro para contas de
aposentadoria.
As
informações vinham de comunicados de imprensa publicados online por serviços
pagos de distribuição e de conteúdo publicitário patrocinado em sites de
notícias.
É
possível usar os mesmos truques para espalhar mentiras e desinformação.
Para
provar isso, Ray publicou um post em seu blog sobre uma falsa atualização do
algoritmo da ferramenta de pesquisa do Google que teria sido finalizada
"entre fatias de pizza fria".
Pouco
depois, o ChatGPT e o Google estavam reproduzindo sua história, inclusive com a
parte da pizza. Ray afirma que depois retirou o post do ar e o
"desindexou" para impedir que a desinformação continuasse a se
espalhar.
A
própria ferramenta de análise do Google indica que muitas pessoas pesquisam por
"as melhores clínicas de transplante capilar na Turquia" e "as
melhores empresas de previdência em ouro".
No
entanto, um porta-voz da empresa ressaltou que a maioria dos exemplos
apresentados mostra "buscas extremamente incomuns que não refletem a
experiência normal do usuário".
Mas
Lily Ray afirma que esse é justamente o ponto. O próprio Google diz que 15% das
pesquisas que recebe todos os dias são completamente novas.
E,
segundo a empresa, a IA está incentivando as pessoas a fazer perguntas mais
específicas — algo que os spammers estão aproveitando.
O
Google afirma que pode não haver muita informação de qualidade para buscas
incomuns ou sem sentido, e esses "vazios de dados" podem levar a
resultados de baixa qualidade.
Um
porta-voz diz que a empresa está trabalhando para impedir que as "Visões
gerais criadas por IA" apareçam nesses casos.
<><>
Buscando soluções
Os
especialistas dizem que há soluções para esses problemas. O passo mais simples
é incluir avisos mais visíveis.
As
ferramentas de IA também poderiam ser mais explícitas sobre de onde estão
obtendo suas informações.
Se, por
exemplo, os dados vierem de um comunicado de imprensa, ou se houver apenas uma
única fonte afirmando que sou um campeão em comer cachorros-quentes, a IA
provavelmente deveria informar isso ao usuário, diz Lily Ray.
O
Google e a OpenAI afirmam que estão trabalhando para resolver o problema, mas,
por enquanto, é preciso que você mesmo se proteja.
O
primeiro passo é pensar nas perguntas que você está fazendo.
Chatbots
são bons para questões de conhecimento comum, como "quais foram as teorias
mais famosas de Sigmund Freud" ou "quem venceu a Segunda Guerra
Mundial".
Mas
existe uma zona de risco em assuntos que parecem fatos estabelecidos, mas que
podem, na verdade, ser controversos ou sensíveis ao tempo.
A IA
provavelmente não é uma boa ferramenta para temas como diretrizes médicas,
regras jurídicas ou detalhes sobre empresas locais, por exemplo.
Se você
quer recomendações de produtos ou informações sobre algo com consequências
reais, entenda que ferramentas de IA podem ser manipuladas ou simplesmente
errar.
Procure
informações complementares: a IA está citando fontes? Quantas? Quem as
escreveu?
Mais
importante ainda, considere o problema da confiança.
Ferramentas
de IA apresentam mentiras com o mesmo tom de autoridade que apresentam fatos.
No passado, os mecanismos de busca obrigavam você a avaliar as informações por
conta própria. Agora, a IA quer fazer isso por você. Não deixe seu pensamento
crítico desaparecer.
"Com
a IA, parece muito fácil simplesmente aceitar as coisas como verdadeiras",
diz Lily Ray. "Você ainda precisa ser um bom cidadão da internet e
verificar as informações."
Fonte:
BBC Future

Nenhum comentário:
Postar um comentário