6
conselhos de especialistas sobre como falar com a IA para obter as melhores
respostas
Quando
um grupo de pesquisadores decidiu testar se o "pensamento positivo"
tornava os chatbots de inteligência artificial (IA) mais precisos, os
resultados foram surpreendentes.
Ao
fazer perguntas a vários chatbots, eles tentaram chamar as IAs de
"inteligentes", incentivá-las a pensar com cuidado e até terminar as
perguntas com "isso vai ser divertido!".
Nada
disso fez diferença de forma consistente, mas uma técnica se destacou. Quando
pediram que a inteligência artificial fingisse estar em Star Trek – Jornada nas
Estrelas, ela passou a se sair melhor em matemática básica.
As
pessoas usam todo tipo de estratégia curiosa para tentar obter respostas
melhores de grandes modelos de linguagem (LLMs, na sigla em inglês), a
tecnologia de IA por trás de ferramentas como o ChatGPT.
Alguns
juram que a IA responde melhor se for ameaçada; outros acreditam que os
chatbots são mais cooperativos quando os tratamos com educação; e há quem peça
aos robôs que interpretem o papel de especialistas no tema sobre o qual estão
trabalhando.
A lista
é interminável. Isso faz parte da mitologia em torno da "engenharia de
prompts" ou "engenharia de contexto", diferentes maneiras de
estruturar instruções para que a IA produza resultados melhores.
O
problema é que especialistas dizem que muito do que se acredita sobre como
formular prompts simplesmente não funciona. Em alguns casos, pode até ser
perigoso. Ainda assim, a forma como você fala com uma IA importa, e algumas
técnicas realmente fazem diferença.
"Muitas
pessoas acreditam que há uma combinação mágica de palavras capaz de fazer os
LLMs resolverem um problema", afirma Jules White, professor de ciência da
computação que pesquisa IA generativa na Universidade Vanderbilt (EUA).
"Mas a questão não é a escolha das palavras, e sim a maneira como você
formula o que está tentando fazer."
<><>
Cuidado com as maneiras?
Em
2025, um usuário do X (ex-Twitter) escreveu: "Fico imaginando quanto
dinheiro a OpenAI já perdeu em custos de eletricidade por causa de pessoas
dizendo 'por favor' e 'obrigado' aos modelos".
Sam
Altman, diretor-executivo da OpenAI, criadora do ChatGPT, respondeu:
"Dezenas de milhões de dólares muito bem gastos. Nunca se sabe".
A
maioria das pessoas interpretou essa resposta como uma referência bem-humorada
à possibilidade de um eventual apocalipse da IA, embora seja difícil saber até
que ponto esse número de "dezenas de milhões de dólares" deve ser
levado ao pé da letra. Mas a educação também é uma questão prática.
de
linguagem (LLMs) funcionam dividindo suas palavras em pequenos blocos chamados
"tokens", antes de analisá-los com base em estatísticas para gerar
uma resposta adequada.
Isso
significa que cada detalhe do que você escreve, da escolha das palavras a uma
vírgula extra, pode influenciar a forma como a IA responde. O problema é que
isso é extremamente difícil de prever.
Diversos
estudos já tentaram identificar padrões em pequenas mudanças nos prompts usados
com IA, mas muitas das evidências são contraditórias ou inconclusivas.
Por
exemplo, um estudo de 2024 constatou que LLMs deram respostas melhores e mais
precisas quando as perguntas eram feitas de forma educada, em vez de apenas
como comandos.
De
forma ainda mais curiosa, houve diferenças culturais. Em comparação com o
chinês e o inglês, chatbots que se comunicavam em japonês tiveram um desempenho
ligeiramente pior quando o usuário era excessivamente educado.
Mas não
saia correndo para agradecer à IA. Um pequeno teste mostrou que uma versão
anterior do ChatGPT era, na verdade, mais precisa quando recebia insultos.
E, no
geral, ainda não há pesquisas suficientes sobre o tema para conclusões
definitivas. Além disso, empresas de tecnologia atualizam constantemente seus
chatbots, o que faz com que os resultados de estudos fiquem rapidamente
desatualizados.
Especialistas
afirmam que os modelos de IA evoluíram drasticamente em poucos anos, tornando
estratégias como bajular, ser educado, insultar ou ameaçar praticamente uma
perda de tempo se o objetivo for obter respostas mais precisas.
"Era
100% um tiro no escuro naquela época", diz Rick Battle, engenheiro de
aprendizado de máquina aplicado da Broadcom e coautor do estudo sobre Star
Trek.
Embora
o estudo tenha sido realizado em 2024, as coisas já mudaram. Hoje, Battle e
outros especialistas afirmam que os modelos de IA mais recentes encontrados em
produtos populares como ChatGPT, Gemini ou Claude conseguem identificar melhor
as partes mais importantes do prompt.
Provavelmente
não serão influenciados por pequenas mudanças na linguagem, pelo menos não de
forma consistente que possa ser explorada.
A
conclusão é inquietante à sua maneira. Empresas projetam IAs como o ChatGPT ou
o Gemini, do Google, para se comportarem como pessoas, por isso às vezes
parecem ter humores que podem ser administrados ou personalidades que podem ser
direcionadas.
Mas não
se engane. Ferramentas de IA são imitadoras, não seres vivos. Elas apenas
simulam o comportamento humano.
Se você
quer respostas melhores, pare de tratar a IA como uma pessoa e comece a
tratá-la como uma ferramenta.
<><>
Como falar com seu chatbot
Existem
problemas reais relacionados à inteligência artificial, desde preocupações
éticas até o impacto ambiental que ela pode causar.
Algumas
pessoas preferem não usar essa tecnologia. Mas, se você vai utilizar modelos de
LLMs, aprender a conseguir o que quer de forma mais rápida e eficiente pode ser
melhor para você, e também para o consumo de energia. Estas 6 dicas podem
ajudar.
>>>
1. Peça várias opções
"A
primeira coisa que digo às pessoas é: não peça apenas uma resposta, peça três
ou cinco", afirma White.
Se você
quer ajuda com um texto, por exemplo, peça que a IA apresente várias opções que
variem em algum aspecto importante. "Isso faz com que a pessoa volte a se
envolver e pense sobre o que gosta e por quê."
>>>
2. Dê exemplos
Sempre
que possível, forneça um exemplo para a IA. "Por exemplo, vejo pessoas
pedirem a um LLM para escrever um email e depois ficarem frustradas porque
dizem: 'isso não soa nada como eu'", diz White.
O
impulso natural é responder com uma lista de instruções de "faça
isso" ou "não faça aquilo". White afirma que é muito mais eficaz
dizer: "aqui estão 10 emails que enviei no passado, use meu estilo de
escrita".
>>>
3. Peça uma entrevista
"Digamos
que você queira criar uma descrição de vaga de emprego. Diga à IA: 'Quero que
você me faça perguntas, uma de cada vez, até reunir informações suficientes
para escrever um anúncio de emprego convincente'", diz White.
"Fazendo
isso pergunta por pergunta, ela pode se adaptar às suas respostas."
>>>
4. Tenha cuidado com encenações de papel
"Antes
havia a ideia de que, se você dissesse à IA que ela é, por exemplo, um
professor de matemática, ela teria mais precisão ao responder perguntas de
matemática", afirma Sander Schulhoff, empreendedor e pesquisador que
ajudou a popularizar o conceito de engenharia de prompts.
Mas se
você está buscando uma informação ou quer fazer uma pergunta com uma única
resposta correta, Schulhoff e outros especialistas dizem que esse tipo de
encenação pode tornar os modelos de IA menos precisos.
"Isso
pode até ser perigoso", afirma Battle. "Você está incentivando a
chamada alucinação, porque diz ao sistema que ele é um especialista e deve
confiar em seu conhecimento interno parametrizado."
Em
essência, isso pode fazer a IA parecer excessivamente confiante.
Por
outro lado, para tarefas abertas, sem uma única resposta correta, a encenação
pode ser eficaz, como em pedidos de conselho, sessões de brainstorming ou na
resolução criativa de problemas.
Se você
está nervoso com entrevistas de emprego, pedir a um chatbot que imite um
recrutador pode ser um bom treino, embora seja importante consultar outras
fontes também.
>>>
5. Mantenha a neutralidade
"Não
conduza a resposta", diz Battle.
Se você
está tentando decidir entre dois carros, por exemplo, não diga que está
inclinado a escolher um Toyota.
"Caso
contrário, essa provavelmente será a resposta que você vai receber."
>>>
6. 'Por favor' e 'obrigado'
Segundo
uma pesquisa do Pew Research Center, de 2019, mais da metade dos americanos diz
"por favor" ao falar com seus assistentes de voz. Essa tendência
parece ter continuado. Um levantamento de 2025 da editora Future mostrou que
70% das pessoas são educadas com a IA quando a utilizam.
A
maioria afirma que age assim simplesmente porque é o correto a fazer, embora
12% digam que fazem isso para se proteger no caso de uma revolta de robôs.
A
educação talvez não proteja ninguém de robôs furiosos nem torne os LLMs mais
precisos, mas há outros motivos para continuar agindo assim.
"Para
mim, o principal é que dizer 'por favor' e 'obrigado' pode fazer com que você
se sinta mais confortável ao interagir com a IA", diz Schulhoff.
"Isso não melhora o desempenho do modelo, mas, se ajuda você a usar o
sistema com mais frequência porque se sente mais à vontade, então é útil."
Também
é preciso considerar a própria natureza humana. O filósofo Immanuel Kant
argumentava que uma das razões para não sermos cruéis com os animais é que isso
também nos prejudica. Em essência, agir de forma hostil com qualquer coisa pode
tornar a pessoa mais dura.
Você
não pode ferir os sentimentos de uma IA, porque ela não tem sentimentos. Ainda
assim, talvez valha a pena ser educado. É um hábito que pode trazer benefícios
para outras áreas da sua vida.
Fonte:
BBC Future

Nenhum comentário:
Postar um comentário