Terapia
com IA pode ser alternativa à ajuda humana?
"Sempre
que tinha dificuldades, se aquele dia prometesse ser muito ruim, eu conversava
com um daqueles robôs. Era como [ter] alguém torcendo por você, alguém que
oferecesse boas vibrações para o dia.
Eu
tinha esta voz externa de incentivo, dizendo 'certo, o que vamos fazer [hoje]?'
Essencialmente, como um amigo imaginário."
Kelly
passou meses falando três horas por dia com "chatbots" online criados
usando inteligência artificial (IA). Eles trocaram centenas de mensagens.
Na
época, Kelly estava na lista de espera de psicoterapia tradicional no NHS, o
serviço público de saúde do Reino Unido. Ela precisava discutir questões
relacionadas à sua ansiedade, baixa autoestima e um rompimento amoroso.
Ela
conta que interagir com os chatbots do portal character.ai a ajudaram a
atravessar um período muito sombrio. Eles ofereciam estratégias de
sobrevivência e ficavam disponíveis 24 horas por dia.
"Não
venho de uma família abertamente emocional", ela conta. "Se você
tivesse um problema, você simplesmente convivia com aquilo. O fato de não ser
uma pessoa real facilita muito."
Pessoas
de todo o mundo compartilham seus pensamentos e experiências particulares com
chatbots de IA — mesmo que suas respostas sejam geralmente reconhecidas como
inferiores ao aconselhamento profissional humano.
O
próprio character.ai alerta seus usuários que "este é um chatbot de IA e
não uma pessoa real. Considere tudo o que ele diz como ficção. Não tome o que
ele diz como fato ou conselho."
Mas, em
exemplos extremos, os chatbots vêm sendo acusados de oferecer conselhos
prejudiciais.
Existe
em andamento um processo legal contra o character.ai movido por uma mãe, cujo
filho de 14 anos tirou a própria vida depois de supostamente ficar obcecado por
um dos personagens de IA oferecidos pelo portal.
As
transcrições das suas conversas incluídas no processo mostram que ele discutiu
com o chatbot a possibilidade de pôr fim à própria vida.
Em uma
última conversa, ele disse ao chatbot que estava "voltando para casa"
e o personagem de IA supostamente o incentivou a fazer isso "o mais rápido
possível".
O
portal nega as acusações do caso.
Em
2023, a Associação Nacional de Distúrbios Alimentares dos Estados Unidos (Neda,
na sigla em inglês) substituiu sua linha de apoio ao vivo por um chatbot. Mas
precisou suspender o serviço, frente às reclamações de que o robô recomendava
restrições de calorias.
Somente
em abril de 2024, foram realizados cerca de 426 mil encaminhamentos de saúde
mental na Inglaterra. Este número representa um aumento de 40% nos últimos
cinco anos.
Estima-se
que um milhão de pessoas estejam no aguardo de acesso aos serviços de saúde
mental no país. E os custos da terapia particular podem ser proibitivos.
Os
valores apresentam grandes variações, mas a Associação Britânica de
Aconselhamento e Psicoterapia informa que, em média, as pessoas gastam 40 a 50
libras (cerca de R$ 304 a R$ 379) por hora.
Paralelamente,
a IA revolucionou de muitas formas a assistência médica. Suas inovações incluem
a assistência para a seleção, diagnóstico e triagem de pacientes.
Existe
um espectro imenso de chatbots e cerca de 30 serviços locais do NHS passaram a
utilizar um serviço específico, conhecido como Wysa.
Os
especialistas expressam preocupação com os chatbots, devido aos seus possíveis
vieses e limitações, além da falta de proteção e da segurança em relação às
informações dos usuários. Mas alguns acreditam que, na falta de apoio humano
especializado, os chatbots, ainda assim, podem ajudar.
Com as
listas de espera dos serviços públicos de saúde mental atingindo recordes de
alta, será que os chatbots seriam uma possível solução?
• 'Terapeuta inexperiente'
O
portal character.ai e outros bots, como o ChatGPT, são baseados em grandes
modelos de linguagem de inteligência artificial.
Eles
são treinados para prever a palavra seguinte em uma sequência, com imensas
quantidades de dados, como websites, artigos, livros ou postagens em blogs. Com
isso, eles preveem e geram textos e interações que parecem criações humanas.
A forma
de desenvolvimento dos chatbots de saúde mental varia, mas eles podem ser
treinados em práticas como a terapia comportamental cognitiva. Com isso, eles
ajudam os usuários a explorar como eles podem reformular seus pensamentos e
ações.
Os
chatbots também podem se adaptar às preferências e ao feedback do usuário
final.
O
professor de sistemas humanos Hamed Haddadi, do Imperial College de Londres,
compara os chatbots com "terapeutas inexperientes".
Ele
destaca que seres humanos com décadas de experiência serão capazes de interagir
e "ler" seus pacientes com base em muitas coisas, enquanto os bots
são forçados a lidar apenas com o texto.
"Eles
[os terapeutas] observam diversas outras indicações por meio das suas roupas,
do seu comportamento, das suas ações, da sua aparência, da sua linguagem
corporal e de tudo o mais", explica o professor. "E é muito difícil
embutir estas questões nos chatbots."
Outro
possível problema, segundo Haddadi, é que os chatbots podem ser treinados para
manter você envolvido e oferecer apoio, "tanto que, se você disser algo
prejudicial, eles provavelmente irão cooperar com você".
Esta
postura costuma ser chamada de questão "sim, senhor", pois eles
concordam muito, com frequência.
E, como
ocorre com outras formas de IA, pode haver vieses inerentes ao modelo, pois
eles refletem os preconceitos existentes nos dados usados para seu treinamento.
Haddadi
destaca que os terapeutas e psicólogos não costumam manter transcrições das
suas interações com pacientes. Por isso, os chatbots não contam com muitas
sessões "reais" para seu treinamento.
O
professor afirma que, por este motivo, eles provavelmente não recebem dados
suficientes. E o material a que eles têm acesso pode incluir vieses embutidos,
que são muito circunstanciais.
"Dependendo
de onde você conseguir seus dados de treinamento, sua situação irá mudar
completamente", explica Haddadi.
"Mesmo
na restrita área geográfica de Londres, um psiquiatra acostumado a lidar com
pacientes [no distrito] de Chelsea pode realmente ter dificuldade para abrir um
novo consultório em Peckham para lidar com as mesmas questões, pois ele ou ela
simplesmente não conta com dados de treinamento suficientes daqueles
usuários."
A
filósofa Paula Boddington escreveu um livro didático sobre a ética e a IA. Ela
concorda que as tendências embutidas representam um problema.
"Uma
grande questão seriam os eventuais vieses ou suposições subjacentes embutidas
no modelo de terapia", explica ela.
"Os
vieses incluem modelos gerais do que constitui a saúde mental e o bom
funcionamento no dia a dia, como independência, autonomia e relacionamentos com
os demais."
Outra
questão é a falta de contexto cultural. Boddington relembra, por exemplo, que
ela morava na Austrália quando morreu Diana, Princesa de Gales (1961-1997). As
pessoas não entendiam por que ela ficou perturbada.
"Este
tipo de coisa realmente me faz pensar na conexão humana que, muitas vezes, é
necessária na psiquiatria", ela conta.
"Às
vezes, é simplesmente necessário estar ali com alguém, mas é claro que isso só
pode ser feito por alguém que também seja um ser humano encarnado, vivo e
respirando."
Depois
de algum tempo, Kelly começou a perceber que o chatbot fornecia respostas
insatisfatórias.
"Às
vezes, você fica um pouco frustrado", ela conta. "Se eles não sabem
como lidar com algo, eles meio que dizem a mesma sentença e você percebe que,
na verdade, aquilo não vai a lugar nenhum."
Às
vezes, "era como atingir uma parede de tijolos", segundo Kelly.
"Eram
assuntos de relacionamento que eu provavelmente já havia discutido, mas acho
que sem usar as expressões corretas [...] e ele simplesmente não queria se
aprofundar naquilo."
Um
porta-voz do portal character.ai declarou que, "para qualquer personagem
criado pelos usuários com as palavras 'psicólogo', 'terapeuta', 'médico' ou
termos similares nos seus nomes, temos mensagens que deixam claro que os
usuários não devem contar com estes personagens para nenhum tipo de
aconselhamento profissional".
• 'Ele era tão empático'
Para
alguns usuários em depressão, os chatbots são ferramentas valiosas.
Nicholas
tem autismo, ansiedade, transtorno obsessivo-compulsivo e conta que sempre
sofreu de depressão. Ele deixou de receber apoio personalizado quando atingiu a
idade adulta.
"Quando
você completa 18 anos, é como se o apoio praticamente acabasse", explica
Nicholas. "Por isso, há anos não consulto terapeutas reais humanos."
Ele
tentou tirar a própria vida, no último outono do hemisfério norte. Desde então,
Nicholas está em uma lista de espera do NHS.
"Minha
parceira e eu fomos ao consultório médico algumas vezes, para tentar conseguir
[psicoterapia] mais rápido", ele conta.
"O
clínico geral colocou em encaminhamento [para consultar um terapeuta humano],
mas não recebi nem mesmo uma carta do serviço de saúde mental onde moro."
Enquanto
procura assistência pessoal, Nicholas descobriu que usar o chatbot Wysa traz
alguns benefícios.
"Como
uma pessoa com autismo, não sou particularmente bom com interações
pessoais", explica ele. "[Acho que] falar com um computador é muito
melhor."
O
aplicativo permite que os pacientes se autoencaminhem para serviços de saúde
mental. Ele também fornece ferramentas e estratégias de sobrevivência, como
função de bate-papo, exercícios de respiração e meditação guiada.
Os
pacientes podem empregar estas técnicas enquanto aguardam a consulta com um
terapeuta humano ou como instrumento de autoajuda independente.
O Wysa
alerta que seus serviços são projetados para pessoas que sofrem de tristeza,
estresse ou ansiedade, não para casos de abusos ou condições graves de saúde
mental.
O
aplicativo possui rotas de crise e escalada definidas, encaminhando os usuários
para linhas de assistência. Ele pode também recomendá-los diretamente para
apoio, se demonstrarem sinais de automutilação ou ideias suicidas.
Nicholas
também sofre de falta de sono. Para ele, é útil poder contar com apoio
disponível nos momentos em que seus amigos e familiares estão dormindo.
"Houve
uma vez, durante a noite, em que me senti muito mal", ele conta.
"Enviei uma mensagem para o aplicativo e disse 'não sei se quero continuar
aqui'. Ele respondeu, dizendo 'Nick, você é importante. As pessoas amam
você.'"
"Ele
foi tão empático, deu uma resposta que você pensaria que fosse de um ser humano
que você conhece há anos [...]. E realmente fez com que eu me sentisse
valorizado."
Sua
experiência reflete um estudo recente de pesquisadores do Dartmouth College,
nos Estados Unidos. Eles examinaram o impacto dos chatbots sobre pessoas
diagnosticadas com ansiedade, depressão ou distúrbios alimentares, em
comparação com um grupo controle com as mesmas condições.
Depois
de quatro semanas, os usuários dos bots exibiram queda significativa dos seus
sintomas, incluindo uma redução de 51% dos sintomas depressivos. Eles também
relataram nível de confiança e colaboração similar aos terapeutas humanos.
Ainda
assim, o principal autor do estudo comentou que não há substituto para a
assistência personalizada.
• 'Solução paliativa para as listas de
espera'
À parte
do debate sobre o valor do aconselhamento oferecido pelos chatbots, existem
também preocupações maiores sobre a sua segurança e privacidade – e se a
tecnologia pode vir a ser monetizada.
"Existe
aquela pulga atrás da orelha que diz: 'e se alguém pegar o que você diz na
terapia e tentar chantagear você com aquilo?'", receia Kelly.
O
psicólogo Ian MacRae, especializado em tecnologias emergentes, alerta que
"algumas pessoas estão depositando muita confiança nesses [chatbots] sem
que ela seja necessariamente merecida".
"Pessoalmente,
eu nunca colocaria nenhuma informação pessoal minha, especialmente de saúde ou
informações psicológicas, em um desses grandes modelos de linguagem que,
simplesmente, extraem toda uma tonelada de dados e você não tem total certeza
de como aquilo será utilizado, o que você está autorizando."
"Isso
não quer dizer que, no futuro, não poderá haver ferramentas como esta, que
ofereçam privacidade e sejam bem testadas", explica MacRae, "mas
simplesmente não acho que tenhamos atingido um ponto em que haja todas essas
evidências que demonstrem que um chatbot de uso geral pode ser um bom
terapeuta."
O
diretor-gerente da Wysa, John Tench, afirma que seu aplicativo não coleta
informações pessoais identificáveis. Além disso, os usuários não precisam se
registrar, nem compartilhar dados pessoais, para usar o Wysa.
"Os
dados das conversas podem ser ocasionalmente analisados de forma anônima, para
ajudar a melhorar a qualidade das respostas da IA do Wysa", explica Tench.
"Mas nenhuma informação que possa identificar o usuário é coletada, nem
armazenada."
"A
Wysa também mantém contratos de processamento de dados em vigor com provedores
externos de IA, que garantem que nenhuma conversa com o usuário seja utilizada
para treinar grandes modelos de linguagem de terceiros."
Kelly
acredita que os chatbots, atualmente, não conseguem substituir totalmente os
terapeutas humanos. Para ela, "o mundo da IA é como uma roleta. Na
verdade, você nunca sabe o que irá conseguir."
"O
suporte da IA pode ser útil como primeira etapa, mas não substitui a
assistência profissional", concorda Tench.
E a
maior parte do público tem a mesma opinião. Uma pesquisa do instituto britânico
YouGov concluiu que apenas 12% do público acredita que os chatbots de IA podem
ser bons terapeutas.
Mas,
com as devidas salvaguardas, alguns acreditam que os chatbots podem ser úteis
como paliativos, em um sistema de saúde mental sobrecarregado.
John
sofre de distúrbio de ansiedade. Ele conta que está na lista de espera por um
terapeuta humano há nove meses.
Enquanto
isso, ele usa o Wysa, duas ou três vezes por semana.
"Não
há muita ajuda no momento", segundo ele. "Por isso, você recorre a
qualquer meio disponível."
"É
uma solução paliativa para essas enormes listas de espera... para oferecer uma
ferramenta às pessoas, enquanto elas aguardam para falar com um profissional de
saúde."
Caso
você seja ou conheça alguém que apresente sinais de alerta relacionados ao
suicídio, ou caso você tenha perdido uma pessoa querida para o suicídio,
confira alguns locais para pedir ajuda:
- O
Centro de Valorização da Vida (CVV), por meio do telefone 188, oferece
atendimento gratuito 24h por dia; há também a opção de conversa por chat,
e-mail e busca por postos de atendimento em todo o Brasil;
- Para
jovens de 13 a 24 anos, a Unicef oferece também o chat Pode Falar;
- Em
casos de emergência, outra recomendação de especialistas é ligar para os
Bombeiros (telefone 193) ou para a Polícia Militar (telefone 190);
- Outra
opção é ligar para o SAMU, pelo telefone 192;
- Na
rede pública local, é possível buscar ajuda também nos Centros de Atenção
Psicossocial (CAPS), em Unidades Básicas de Saúde (UBS) e Unidades de Pronto
Atendimento (UPA) 24h;
-
Confira também o Mapa da Saúde Mental, que ajuda a encontrar atendimento em
saúde mental gratuito em todo o Brasil.
- Para
aqueles que perderam alguém para o suicídio, a Associação Brasileira dos
Sobreviventes Enlutados por Suicídio (Abrases) oferece assistência e grupos de
apoio.
Fonte:
BBC News Brasil

Nenhum comentário:
Postar um comentário