Máquinas
já 'pensam' como humanos? O que teste criado há 75 anos revela sobre era da
inteligência artificial
Podemos
distinguir se estamos conversando com outro ser humano ou com uma inteligência
artificial (IA)?
Durante
muito tempo, esta tem sido uma das perguntas feitas pelas pessoas ao avaliarem
o quão inteligentes os computadores realmente são.
Ela se
origina do Teste de Turing, elaborado pelo matemático e cientista da computação
inglês Alan Turing em 1950 — transformando, pela primeira vez, o pensamento
filosófico sobre a inteligência das máquinas em um teste empírico.
De
acordo com o teste, se o comportamento de um computador fosse indistinguível do
de um humano, então ele seria considerado como alguém que exibe um
comportamento "inteligente".
Mas
quando um chatbot de IA supostamente passou no teste pela primeira vez em 2014,
em vez de ser um momento decisivo, isso alimentou uma controvérsia.
<><>
Um jogo de imitação
O Teste
de Turing é um jogo de imitação onde uma pessoa conversa, via texto, tanto com
outro ser humano quanto com um computador.
Elas
podem fazer as perguntas que desejarem antes de terem que decidir qual é o
humano e qual é a máquina.
"Turing
afirmou que, se as pessoas não conseguissem distinguir de forma confiável entre
humanos e máquinas, então não teríamos base para dizer que o humano podia
pensar, mas a máquina não", diz Cameron Jones, professor assistente de
psicologia na Universidade Stony Brook, em Nova York (EUA).
Turing
previu que, até o ano 2000, os computadores seriam capazes de se passar por
humanos após cinco minutos de questionamento, em pelo menos 30% das vezes.
<><>
'Sem jogar de forma justa'
Em
2014, um chatbot de IA chamado Eugene Goostman convenceu 33% dos juízes de que
era humano no Teste de Turing — ultrapassando o limite estabelecido pelos
organizadores da competição.
Comunicando-se
em inglês, ele adotou a personalidade de um menino ucraniano de 13 anos.
Markus
Pantsar, filósofo e palestrante convidado na Universidade RWTH Aachen, na
Alemanha, diz que isso significava que ele não estava "jogando o jogo de
forma justa".
"As
deficiências do chatbot meio que se ajustavam às deficiências no domínio da
língua inglesa de um adolescente ucraniano", argumenta ele.
Desde
então, ferramentas mais avançadas teriam passado no Teste de Turing.
Em um
artigo publicado no início de 2025, Jones descobriu que o ChatGPT 4.5 da OpenAI
foi julgado como humano em 73% das vezes — com mais frequência do que o seu
homólogo humano. O Llama 3.1 da Meta foi julgado como humano em 56% das vezes.
"Acho
difícil argumentar que os modelos não passaram no teste, dado que são julgados
como humanos significativamente mais vezes do que as pessoas", diz ele.
Mas
alguns permanecem céticos sobre se isso prova que os computadores realmente
podem pensar.
<><>
O argumento do quarto chinês
Em
1980, o filósofo John Searle propôs um experimento mental chamado "o
argumento do quarto chinês".
Ele
funciona assim: um homem inglês que não entende chinês é trancado em um quarto
com alguns caracteres chineses e instruções em inglês sobre como usá-los.
Pessoas
fora do quarto passam bilhetes para ele com perguntas escritas em chinês, e ele
usa as instruções para formular respostas, também em chinês.
Para
quem está de fora, pareceria que o homem sabe falar chinês, mas ele não entende
verdadeiramente o que está dizendo.
Alguns
argumentam que o mesmo poderia ser dito sobre os computadores, que são
meramente programados para dar respostas apropriadas.
"Embora
o Teste de Turing afirme identificar inteligência, ele tenta principalmente
identificar se uma máquina consegue imitar humanos bem o suficiente", diz
George Mappouras, um engenheiro de software baseado na Califórnia, que criou
sua própria alternativa ao Teste de Turing.
Ele dá
um exemplo para ilustrar isso.
"Você
pode abrir qualquer bot de IA e pedir primeiro que ele explique como funciona
um relógio analógico, e ele explicará com precisão", diz ele.
Mas se
você pedir para ele gerar a imagem de um relógio marcando uma hora específica,
os modelos de IA atuais provavelmente falharão.
"Ele
não entende realmente a informação", afirma.
Outros,
como Pantsar, pensam que o Teste de Turing coloca ênfase demais na capacidade
do computador de enganar o juiz.
"O
comportamento inteligente real pode incluir enganar, mas, fundamentalmente,
essa não é a parte principal", argumenta ele.
<><>
Testes alternativos
Pantsar
criou o Teste de Inteligência Baseado em Comunidade (CBIT) — uma das muitas
alternativas propostas ao longo dos anos.
Ao
contrário do Teste de Turing, realizado em laboratório, no cenário dele um
sistema de IA é colocado dentro de uma comunidade existente — por exemplo, uma
comunidade online de matemáticos — sem o conhecimento deles.
Depois
de algum tempo, os membros são testados para verificar se perceberam que se
tratava de uma máquina ou não.
Ainda
há algum nível de decepção, mas Pantsar acredita que a maior parte do teste
envolveria o sistema "comportando-se de maneira humana", e não
"personificando" humanos — o que ele afirma ser uma distinção
importante.
"A
inteligência deve ser avaliada em circunstâncias naturais — o tipo de ambiente
em que realmente interagimos", argumenta o filósofo.
Ele diz
que seu teste também incentiva os desenvolvedores a focarem em se um sistema de
IA é útil ao criá-lo, em vez de se ele passaria ou não em um teste de
enganação.
Mappouras,
por outro lado, elaborou um teste que, segundo ele, analisa uma medida de
inteligência mais concreta.
Ele
acredita que a inteligência artificial geral — um conceito teórico onde uma
máquina tem a mesma capacidade intelectual que um humano — seria alcançada se
uma máquina pudesse "propor algum novo conhecimento científico e
explicá-lo", desde que ela já conheça toda a informação necessária.
Apesar
das críticas, alguns acreditam que o Teste de Turing ainda tem um lugar na
pesquisa moderna de IA.
Jones
diz que o fato de ele ser aberto e as perguntas não serem claramente definidas
permite testar "algum tipo de inteligência dinâmica e flexível".
"Se
substituirmos isso por apenas outro parâmetro estático, acho que estaremos
interpretando mal o que Turing pretendia", afirma.
<><>
'Uma batalha perdida'
Independentemente
do teste utilizado, Pantsar acredita que, à medida que os sistemas de IA
continuam a se desenvolver, é provável que se tornem indistinguíveis das
pessoas.
"No
fim das contas, essa é uma batalha perdida que estamos travando", diz ele.
E ser
capaz de provar isso, argumenta, justificaria a necessidade de marcos legais
que obriguem a IA a se declarar como IA — por razões de responsabilidade.
"Se
eu publicasse um artigo que contivesse alguns dados errôneos, eu seria o
responsável por isso", diz Pantsar. "Mas se for um artigo escrito por
IA, ninguém é responsável."
Jones
acredita que é importante medir quão bem uma máquina consegue imitar um humano,
o que torna o Teste de Turing ainda relevante hoje.
"Passamos
muito tempo interagindo com pessoas na internet", diz ele.
"E,
cada vez mais, as pessoas estão começando a ter essa experiência de... entrar
em uma discussão com uma conta no Twitter e perceber: 'Na verdade, não estou
falando com um ser humano'."
"Uma
das coisas que o Teste de Turing faz, eu acho, é acompanhar essa capacidade de
ver qual a probabilidade de isso acontecer", acrescenta.
Fonte:
BBC World Service

Nenhum comentário:
Postar um comentário