Como
a inteligência artificial já consegue ler pensamentos
A
mulher estava imóvel, exceto pelas subidas e descidas da sua respiração. Seus
olhos estavam fixos e concentrados e as mãos fechadas como em um soco. Palavras
se formavam em uma tela à sua frente e se reuniam lentamente, formando frases
inteiras, que ela não conseguia dizer em voz alta.
Ela tem
52 anos de idade e ficou paralisada por um AVC 19 anos antes, sem poder falar
com clareza. Mas, agora, seu monólogo interno aparecia em frente aos seus
olhos.
Identificada
apenas como participante T16, a mulher recebeu um minúsculo feixe de eletrodos,
inserido cirurgicamente em um lóbulo na frente do cérebro.
Agora,
um computador, alimentado por uma forma de inteligência artificial, decodifica
os sinais produzidos pelos seus neurônios enquanto ela imagina dizer palavras.
O sistema traduz os sinais em texto e mostra em uma tela.
Ela fez
parte de um estudo da Universidade de Stanford, no Estado americano da
Califórnia, ao lado de três outros pacientes com a doença neurodegenerativa
esclerose lateral amiotrófica (ELA). O objetivo é testar uma técnica capaz de
traduzir pensamentos em texto, em tempo real.
Foi o
mais próximo que os cientistas já chegaram de uma forma de "ler
pensamentos".
Os
pesquisadores publicaram suas realizações em agosto de 2025. Alguns meses
depois, pesquisadores japoneses revelaram uma técnica de "legendar a
mente", capaz de gerar descrições precisas e detalhadas do que uma pessoa
está observando ou imaginando.
Ela
combina três ferramentas de IA diferentes com imagens cerebrais não invasivas
para traduzir a atividade cerebral da pessoa.
Estes
dois estudos são os mais recentes de uma série de inovações que vêm oferecendo
aos neurocientistas uma nova visão do funcionamento interno do cérebro humano e
fornecendo oportunidades de ajudar pessoas incapazes de se comunicar de outra
maneira.
Algum
dia, estes avanços poderão transformar radicalmente a forma como todos nós
interagimos com o mundo à nossa volta e até entre nós mesmos.
"Nos
próximos anos, começaremos a ver essas tecnologias sendo comercializadas e
implementadas em escala", afirma a neuroengenheira Maitreyee Wairagkar,
que desenvolve interfaces entre o cérebro e computadores no laboratório de
neuropróteses da Universidade da Califórnia em Davis, nos Estados Unidos.
Diversas
empresas, incluindo a Neuralink, de Elon Musk, já procuram produzir chips
cerebrais comerciais que trarão esta tecnologia do laboratório para o mundo
real.
"É
fascinante", afirma Wairagkar.
Os
cientistas vêm desenvolvendo dispositivos capazes de se comunicar diretamente
com o cérebro humano há muito tempo. Eles são conhecidos como interfaces entre
o computador e o cérebro (BCIs, na sigla em inglês).
Em
1969, o neurocientista americano Eberhard Fetz demonstrou que macacos conseguem
aprender a mover a agulha de um medidor com a atividade de um único neurônio no
cérebro, se receberem um alimento em troca.
Em um
experimento mais idiossincrático da mesma época, o cientista espanhol José
Delgado (1915-2011) conseguiu estimular remotamente o cérebro de um touro
enfurecido, fazendo com que ele parasse a meio caminho.
Os BCIs
conseguiram há décadas decodificar os sinais cerebrais que acompanham o
movimento, de forma que os usuários possam controlar um membro protético ou
cursor em uma tela.
Mas o
desenvolvimento de BCIs que traduzem sinais de fala ou outros pensamentos
complexos dos sinais cerebrais caminha com mais lentidão.
"Grande
parte do trabalho inicial foi feita em primatas não humanos... e, obviamente,
você não pode estudar a fala com macacos", explica Wairagkar.
Mas,
nos últimos anos, este campo fez avanços impressionantes rumo à decodificação
da fala das pessoas com capacidades comunicativas debilitadas. É o caso de
pacientes que sofrem de ELA, que traz paralisia e a síndrome do encarceramento.
Pesquisadores
da Universidade de Stanford anunciaram em 2021, por exemplo, uma prova de
conceito bem sucedida que permitiu a um homem quadriplégico produzir frases em
inglês, ao se imaginar desenhando letras no ar com sua mão. Com este método,
ele conseguiu escrever 18 palavras por minuto.
A fala
humana natural é de cerca de 150 palavras por minuto. Por isso, a próxima etapa
seria decodificar palavras da atividade neural associada à própria fala.
Em
2024, o laboratório de Wairagkar testou uma técnica que traduzia as tentativas
de fala de um homem de 45 anos de idade com ELA, diretamente em texto na tela
de um computador.
Com
cerca de 32 palavras por minuto e 97,5% de precisão, esta foi a primeira
demonstração de como os BCIs de fala poderão ajudar na comunicação diária,
segundo Wairagkar.
Estes
métodos usam "conjuntos" minúsculos de microeletrodos, implantados
cirurgicamente na superfície do cérebro.
Esses
conjuntos registram padrões da atividade neural da área do cérebro onde são
colocados e os sinais são convertidos em significado por um algoritmo de
computador.
É aqui
que o poder do aprendizado de máquina (um tipo de inteligência artificial) foi
transformador. Os algoritmos são capazes de reconhecer padrões em imensas
quantidades de dados disparatados.
No caso
da decodificação da fala, os algoritmos de aprendizado de máquina são treinados
para reconhecer padrões de atividade neural associados a diferentes fonemas,
que são os menores blocos de construção da linguagem.
Pesquisadores
compararam este sistema com o processamento que ocorre em assistentes
inteligentes, como a Alexa, da Amazon. Mas, em vez de interpretar sons, a IA
interpreta sinais neurais.
<><>
Revelando a fala interior
Por
mais impressionantes que sejam esses esforços recentes de decodificação da
fala, permanecem alguns empecilhos.
Normalmente,
os pacientes necessitariam tentar dizer as palavras que gostariam de comunicar,
mesmo se não fossem fisicamente capazes de fazê-lo, para que elas sejam
traduzidas com precisão pela tecnologia dos BCIs.
Isso
ocorre porque os eletrodos são normalmente colocados no córtex motor, que é a
área responsável pelos movimentos dos músculos. Mas tentar falar requer
esforço, o que torna o processo de comunicação lento e difícil.
Para
sua última tentativa, os pesquisadores da Universidade de Stanford quiseram
testar se havia uma forma mais fácil: se eles poderiam projetar um método que
detectasse a "fala interior" em tempo real, além da "tentativa
de fala".
"Pedimos
que eles contassem o número de formas de uma certa cor na tela, pois
imaginávamos que você provavelmente realizaria este tipo de tarefa contando
literalmente os números na cabeça", explica Frank Willett, um dos
diretores do Laboratório de Tradução Protética Neural da Universidade de
Stanford. Ele também foi um dos autores do estudo envolvendo a mulher
mencionada no início desta reportagem.
"E
foi o que observamos. Vimos traços desses números passando através do córtex
motor, que conseguimos captar."
A
resposta se a tecnologia conseguiria identificar a fala interior é um
"sim" provisório.
Para
uma tarefa que envolve imaginar uma frase, os pesquisadores conseguiram atingir
índice de precisão de até 74% em tempo real. Já nas tarefas projetadas para
estimular a fala interior espontânea, a precisão diminuiu, mas ainda ficou bem
acima do simples acaso.
No
entanto, em condições mais abertas, oferecendo aos participantes instruções
como "pense na sua fala favorita de um filme", a linguagem
decodificada foi praticamente incompreensível.
"Sem
a tecnologia atual, não conseguimos entender a fala interior totalmente não
filtrada de uma pessoa com precisão perfeita", afirma Willett. "Mas
conseguimos captar traços de fala interior de forma bastante clara nessas
tarefas distintas."
O
estudo demonstrou ainda como a fala interior pode funcionar no nosso cérebro.
Ele descobriu que os padrões neurais da fala interior apresentam alta
correlação com os da tentativa de fala no córtex motor, mas que os sinais
emitidos são mais fracos.
Isso
confirma estudos anteriores de eletrofisiologia e neuroformação de imagens, que
concluíram que a fala interior usa uma rede cerebral similar à da fala
produzida fisicamente.
<><>
Além das palavras
O
laboratório de Wairagkar na Universidade da Califórnia em Davis fez uma
importante descoberta em 2025, Ele demonstrou que poderia não só decodificar
palavras, mas também os elementos não verbais da fala, como a entonação, o tom,
o ritmo e a velocidade.
Essencialmente,
isso permitiria aos pacientes comunicar expressões e ênfase, além das palavras
em si.
"A
fala humana é muito mais do que texto sobre tela", explica Wairagkar.
"A
maior parte da nossa comunicação vem de como falamos, como nos expressamos. O
que dizemos tem significados diferentes em contextos distintos."
Wairagkar
e seus colegas demonstraram que seu protótipo pode produzir fala em voz alta,
como tenta fazer um paciente de ELA com grave distúrbio motor da fala.
Basicamente,
o participante conseguiu modular suas palavras para transmitir significado.
"Nosso
participante conseguiu fazer uma questão com inflexão no final da sentença e
mudar de tom enquanto falava", explica Wairagkar. "Demonstramos isso
com uma tarefa simples, na qual ele cantava melodias."
Não foi
perfeito, mas os responsáveis pelos testes consideraram que 60% das palavras
foram inteligíveis.
Ainda
serão necessários novos progressos para chegarmos à melhor tecnologia de
transmissão do cérebro para texto, mas o teste demonstrou que isso poderá ser
possível no futuro próximo.
Wairagkar
e Willett acreditam que novos progressos são iminentes. Um caminho para a
melhoria poderá envolver simplesmente o aumento da quantidade de microeletrodos
colocados no cérebro.
"No
nosso cérebro, temos bilhões de neurônios e trilhões de conexões", destaca
Wairagkar. E, no seu estudo mais recente, "estamos trabalhando com uma
amostra de apenas 256 deles".
"Dispositivos
mais novos e melhor tecnologia conseguirão usar amostras com mais neurônios,
obter maior riqueza de informação e atingir fala inteligível em tempo
real", acrescenta ela.
Willett
tem interesse em explorar ainda mais particularmente a fala interior. Seus
planos são de pesquisar como outras áreas do cérebro, fora do córtex motor,
podem estar envolvidas.
"Uma
área de interesse para nós é o giro temporal superior", explica ele.
Willett
se refere a uma área do cérebro envolvida no processamento auditivo, que também
poderá participar da fala interna, como "as representações auditivas do
que você imagina ouvir dentro da sua cabeça".
Observar
além do córtex motor também poderá ser importante para ajudar as pessoas que
têm lesões cerebrais nesta região, como vítimas de AVC, cujo córtex motor está
danificado, mas ainda conseguem entender a fala.
Descobrir
outras áreas do cérebro envolvidas na fala interior também poderá, um dia,
ajudar essas pessoas a se comunicar, destaca Willett.
<><>
Ver para crer
Enquanto
os pesquisadores de interfaces entre o computador e o cérebro se concentram nas
aplicações práticas da tecnologia que podem ajudar os pacientes, existem outros
campos fazendo progressos com a decodificação de imagens cerebrais e nos
ajudando a compreender melhor o funcionamento do cérebro.
Uma
área de pesquisa se concentra na recriação de imagens observadas por
indivíduos, simplesmente analisando as imagens cerebrais com IA.
Funciona
assim: os participantes observam imagens enquanto sua atividade cerebral é
registrada por meio de imagens de ressonância magnética funcional (fMRI, na
sigla em inglês). Esta técnica mede a atividade cerebral, detectando alterações
do fluxo sanguíneo para diferentes regiões do cérebro.
Os
dados neurais são decodificados em seguida por um algoritmo e alimentados para
um gerador de imagens por IA, que tenta reproduzir as imagens observadas pelo
paciente.
Os
pesquisadores vêm tentando montar este quebra-cabeça há décadas, mas o boom da
IA generativa nos últimos anos trouxe avanços significativos neste setor.
Os
geradores mais recentes de imagens por IA, como o Stable Diffusion, melhoraram
imensamente a qualidade das imagens produzidas.
O
professor Yu Takagi, do Instituto de Tecnologia de Nagoya, no Japão, publicou
um estudo em 2023 seguindo este método, com um algoritmo do Stable Diffusion.
O
algoritmo foi treinado com base em um conjunto de dados online criado pela
Universidade de Minnesota, nos Estados Unidos. Ele consiste de imagens do
cérebro de quatro participantes, tiradas enquanto cada um deles observava um
conjunto de 10 mil fotos.
Em
muitos casos, a IA conseguiu fornecer uma impressão adequada da imagem
original, apesar de ter ficado completamente perplexa com uma tigela de salada.
Este
campo segue avançando rapidamente. Pesquisadores de Israel publicaram um estudo
no ano passado que conseguiu reproduzir imagens ainda mais precisas.
Estes
estudos ajudaram a esclarecer como o cérebro processa informações visuais,
segundo Takagi. A conclusão foi que duas partes distintas do cérebro são
fundamentais.
O lobo
occipital, localizado na parte de trás do cérebro, codifica os aspectos visuais
"de baixo nível" de uma imagem, como o layout, a perspectiva e a cor.
Paralelamente, o lobo temporal, que fica atrás das têmporas, codifica elementos
conceituais "de alto nível", envolvidos na classificação do que é
realmente um objeto.
<><>
O som da música
Também
existem estudos em andamento para reconstruir experiências auditivas.
Em
2025, Takagi publicou um estudo que empregou um algoritmo de propriedade do
Google para tentar reproduzir áudio a partir de imagens de fRMI produzidas
enquanto os pacientes ouviam trechos de músicas.
Takagi
afirma que este pode ser um desafio maior do que reconstruir imagens, pois a
música muda constantemente, enquanto o aparelho de fMRI só consegue produzir
imagens completas em intervalos de um segundo.
"A
qualidade da reconstrução é menor, em comparação com a reconstrução de
imagens", explica ele. "Mas ainda conseguimos reconstruir as
características e a categoria básica da música."
Este
campo aumentou nosso conhecimento das bases neurais da percepção musical.
"O
que nos surpreendeu neste estudo é que a percepção da música no cérebro é
diferente da percepção de imagens", explica Takagi.
"Para
as imagens, as informações de alto e baixo nível possuem locais distintos no
cérebro. Para a música, descobrimos que a semântica e as informações de baixo
nível não ficam separadas."
Takagi
está empolgado com algumas das possíveis aplicações destas técnicas.
Elas
poderão recriar as alucinações visuais e auditivas de pacientes psiquiátricos,
como esquizofrênicos, para entendermos melhor a sua condição, segundo ele. E as
técnicas poderão ser usadas para recriar as experiências dos animais enquanto
processam o mundo ou até para reconstruir sonhos.
"Muitas
pessoas estão pedindo isso", diz Takagi, rindo.
Ele
conta que gostaria de recriar sonhos algum dia. Mas, por enquanto, parece
extremamente complicado.
Pesquisas
chegaram a levantar a possibilidade de comunicação direta entre um cérebro e
outro ou até com diversas pessoas de uma vez. Mas as implicações éticas e
questões de direitos humanos relacionadas aos aparelhos que oferecem esta
possibilidade ainda precisam ser totalmente analisadas.
E, para
quem espera que também seja possível estimular experiências visuais ou
auditivas no cérebro em nome do entretenimento, Takagi pede paciência.
Teoricamente,
isso é possível, mas ele afirma que limitações técnicas indicam que,
provavelmente, não irá acontecer nos próximos 10 a 20 anos.
Fonte:
BBC Future

Nenhum comentário:
Postar um comentário