Seu
psicólogo pode estar usando IA para registrar sessões de terapia: quais os
riscos dessa prática?
Fazer
terapia com um chatbot pode não ser uma boa ideia por uma série de motivos,
como muitos especialistas têm alertado.
Mas e
quando os próprios terapeutas passam a usar inteligência artificial generativa,
como ChatGPT e Gemini, para auxiliar em suas tarefas, seja para transcrição de
sessões ou até discutir casos?
Empresas
já estão oferecendo esse serviço aos profissionais. Há ferramentas para
transcrição de sessões, sugestões de análise técnica, evolução do paciente,
supervisão e sugestões de abordagens.
"Você
ainda perde tempo escrevendo resumo de sessão?", diz o anúncio de uma
dessas ferramentas, no Instagram, a PsicoAI.
Outra
plataforma, a PsiDigital, promete automatização de relatórios e laudos, criação
de página de divulgação personalizada e até "sugestões de intervenção
baseadas nos principais autores de cada abordagem terapêutica." As
empresas dizem que essas tecnologias não devem substituir os profissionais, mas
apoiá-los.
A
adesão profissional é uma realidade. A BBC News Brasil procurou 50 psicólogos
nas redes sociais e questionou se eles fazem uso de algum tipo de IA no
trabalho.
Dos que
responderam, dez confirmaram que fazem uso da tecnologia para tarefas como
transcrições de sessões de terapia e resumos.
O uso
de IA entre estes profissionais não é proibido.
Em
julho, o Conselho Federal de Psicologia (CFP) reconheceu que o uso "já vem
sendo incorporado ao cotidiano em múltiplos contextos de atuação" e
ressaltou a necessidade da supervisão crítica e discernimento ético, mas sem
restrições específicas. E diz que cabe a cada profissional a avaliação de
limites e riscos dessas ferramentas.
<><>
Psicólogos testam usos com consentimento de paciente
Maísa
Brum é psicóloga especializada em avaliação neuropsicológica. Seu trabalho
envolve realizar longas entrevistas com pacientes, coletar dados e depois
produzir laudos técnicos com essas informações.
Por
algum tempo, ela terceirizou essa tarefa de transformar anotações em um
documento técnico para um estagiário. Mas logo percebeu que os textos chegavam
sempre com um mesmo padrão, "pouco humanizados" e, ao questioná-lo,
descobriu que ele estava usando o ChatGPT para a tarefa.
"O
laudo tem sempre uma sequência, com descrição dos dados, objetivo da avaliação,
testes que foram aplicados. É um esqueleto técnico", explica.
Foi aí
que ela decidiu aprender mais sobre a tecnologia. Fez alguns cursos e então
incorporou algumas dessas ferramentas em parte de suas tarefas.
Hoje
ela usa um gravador com IA embutida, que transcreve as entrevistas com os
pacientes e devolve já com uma linha do tempo dos fatos e informações no
formato necessário para escrever o laudo, que depois é revisado manualmente. Um
formulário de consentimento é dado a cada paciente para que saibam que estão
sendo gravados com a tecnologia.
"Tem
sido muito útil e facilitado bastante a minha vida de escrita", afirmou,
destacando que apaga os arquivos após uso para evitar armazenamento externo.
Maísa diz que o recurso serve apenas como apoio, não como ferramenta
diagnóstica. "Minha grande preocupação é no uso inadequado da IA para
terceirizar o pensamento crítico e o raciocínio clínico".
Eduardo
Araújo, psicólogo e professor universitário, diz que tem usado IA para análise
e organização de dados, mas não diretamente com pacientes e sim em pesquisas,
como fez em seu mestrado na área.
Ele fez
um experimento com o ChatGPT, quando analisava dados em uma tabela com centenas
de pacientes. O objetivo do estudo era identificar a influência de experiências
traumáticas em crianças e adolescentes, a partir de uma lista com dados de mais
de 500 pacientes, de forma anonimizada. "Para esse tipo de tarefa, de
análise de dados, acaba sendo muito útil."
Araújo
avalia que é preciso ter cautela com ferramentas que prometem ajudar com
diagnóstico. Ele diz que a tecnologia acelera tarefas burocráticas, mas nunca
deve formular hipóteses diagnósticas no lugar do profissional.
"Quando
você pesquisa algum sintoma na internet, se levar a sério o que vem de
resultado, você acha que vai morrer. Com a IA não é diferente: se você coloca
algum sintoma, a resposta me dá uma gravidade diferente daquilo que se
perceberia na clínica, em contato com a pessoa."
<><>
'A psicologia não vai ser substituída, mas pode mudar'
A
psicóloga Patrícia Mourão De Biase disse à BBC News Brasil que entrou em
contato com IA por curiosidade, principalmente com o boom de informação sobre o
tema que recebeu neste ano. "Temos a opção de sermos atropelados ou
entender o que está acontecendo e caminhar junto", diz ela.
De
Biase diz que, desde a pandemia, tem havido mais flexibilização entre
psicólogos no uso de tecnologias, principalmente em relação ao atendimento
remoto de pacientes. "Ficamos mais flexíveis para entender esses
movimentos da tecnologia. A categoria sempre foi mais quadradinha nesse
sentido, mas precisou se adaptar. Vejo ainda muitos colegas se esquivando da
IA."
De
Biase, que presta serviço para empresas e também atende em consultório, diz que
tem utilizado a ferramenta para automatizar tarefas burocráticas e também para
criar novos conteúdos para suas sessões.
"Crio
enquetes e passo tarefas de casa para os pacientes. Isso refresca a conexão
entre uma sessão e outra."
Ela diz
que a IA também tem sido usar para "pensar junto" com os psicólogos.
"Quando acaba a sessão, colocamos conteúdo e a própria IA diz: poderia
abordar por aqui, por ali. Não tenho preconceito com isso, embora eu não use no
dia a dia."
Outra
tarefa que se tornou comum é a de transcrição e transformação das sessões em
prontuário, que depois são revisados de forma manual. "É importante que os
pacientes estejam de acordo, que assinem um documento. Mas até hoje ninguém
recusou", diz.
A
psicóloga avalia que a tecnologia não vai substituir a profissão. "Tem
gente que não sabe nem o que perguntar ao ChatGPT. Ele é bom? Sim, pode ajudar
em algo pontual, em um momento de ansiedade, de angústia. Mas se não aprendemos
direito a perguntar, provavelmente ele não vai entregar. Nada precisa jogar
fora. Pegue o que o chat disse e depois leve para a sessão, converse com o
terapeuta sobe isso."
"Gerenciar
o tempo é padrão ouro para todos. e a IA otimiza bastante isso. Me instiga a
buscar mais fontes. Se eu puder deixar um recado, é para que as pessoas não
fiquem com medo. Que mergulhem. A psicologia não vai ser substituída, mas pode
mudar."
<><>
'A IA quer oferecer respostas rápidas. Mas terapias são cenários de incerteza',
diz especialista
Segundo
Rodrigo Martins Leite, psiquiatra e psicoterapeuta do Centro de Saúde da
Comunidade da Unicamp (CECOM), o uso de inteligência artificial entre
psicólogos é uma realidade presente, porém ainda pouco debatida pela classe.
"É
algo que está emergindo no mercado e a gente, enquanto terapeuta, precisa
começar a discutir com o devido cuidado."
Embora
reconheça a utilidade prática, Leite alerta para os riscos de confundir a
ferramenta com o profissional.
"Ferramentas
de transcrição poupam tempo de trabalho administrativo. A grande questão é
quando a IA começa a se confundir com o terapeuta. É algo que levanta uma série
de questões éticas, do próprio papel do profissional."
O
especialista observa que a pandemia consolidou uma "realidade
irreversível", na qual "a IA só vem somar nesse contexto de mudança
tecnológica." Contudo, ele aponta o que considera lacunas quanto à
confidencialidade.
"Não
existe nenhum recurso de anomização das informações, por exemplo, o que pode
ferir a Lei Geral de Proteção de Dados. Há uma série de lacunas legislativas e
éticas que não foram suficientemente discutidas. Um terapeuta que relata casos
para uma IA, conta a história de vida de uma pessoa e ainda pede ajuda para
pensar no caso. Como regular isso?"
Leite
defende a necessidade de desmistificar a tecnologia, separando a ferramenta da
fantasia de um saber superior.
"A
IA não é um oráculo. Isso é uma fantasia, um desejo humano de que exista algo
superior. Mas a IA utiliza banco de dados e a própria internet para gerar
conteúdo. Do mesmo jeito que ha informações valiosas, há outras de péssima
qualidade e até de conteúdo fraudulento."
Entre
os aspectos positivos, ele destaca o potencial da IA para ampliar a capacidade
reflexiva, organizar o raciocínio clínico e auxiliar no preparo de sessões.
"Podemos
ser mais criativos, criar materiais didáticos, imagens. É um estímulo ao
pensamento do terapeuta."
No
entanto, o psiquiatra é enfático ao afirmar que a tecnologia não substitui a
formação profissional, baseada essencialmente na troca humana.
"Existem
etapas fundamentais. Nossa formação é baseada na supervisão humana. Nos
formamos a partir da experiência de outro profissional, que vai nos orientando,
discutindo como estamos vendo os casos. A IA não pode substituir isso."
Além
disso, a ferramenta carece de profundidade para compreender diferentes linhas
teóricas e conceitos complexos.
"Se
não estudarmos as teorias, a IA não vai fazer isso pelas pessoas. Vai, no
máximo, oferecer um compilado superficial de teorias."
Outro
ponto crítico é a velocidade das respostas geradas pela IA, que pode criar uma
falsa sensação de clareza em cenários terapêuticos marcados pela incerteza.
"Isso
gera uma ilusão de que a situação está muito clara. Terapias são cenários de
incerteza, ambiguidade, de não saber o que está acontecendo. Já a IA sabe tudo.
Vai na contramão de um princípio básico das psicoterapias, de que existe um
tempo para elaborar certas questões e problemas. Que o paciente precisa de um
tempo para entender. Que respostas não são tão fáceis. Em um mundo imediatista,
isso é extremamente perigoso."
Para
Leite, o psicólogo não deve tentar competir com a velocidade da máquina, sob o
risco de comprometer o processo de elaboração.
"A
ferramenta acaba por reduzir a tolerância do terapeuta sobre não saber. Muitas
vezes não sabemos como intervir, e isso não é necessariamente ruim. É a janela
para refletir melhor os casos, buscar supervisão. Terapia exige tempo,
mergulho."
Por
fim, ele reforça que o uso de IA exige o consentimento explícito do paciente
para evitar violações éticas e legais.
"Há
dados sensíveis, o paciente tem o plano direito de saber e, depois, concordar
ou não, inclusive com uso de termo de consentimento. Não há uma regra sobre
isso hoje, mas é uma questão de proteção ética e legal."
<><>
'Nossa plataforma não substitui o profissional'
A
plataforma Psidigital oferece aos clientes o que chama de um "assistente
virtual" nas sessões, "capturando os principais pontos enquanto você
[o psicólogo] se concentra no paciente".
A
ferramenta promete gerar automaticamente um "relatório completo ou laudo
psicológico de forma detalhada e estruturada, com sugestões e insights para as
próximas etapas do tratamento ou seleção de candidatos."
Promete
também "sugestões de intervenção baseadas nos principais autores de cada
abordagem terapêutica, como Freud, Jung, Winnicott", dentre outros.
O
engenheiro mecânico Gustavo Landgraf, criador da Psidigital, teve a ideia de
criar um programa que ajudasse psicólogos junto com sua esposa, Leilane, que é
psicanalista.
"Ela
fazia anotações durante e depois das sessões e tinha um monte de papeis",
lembrou.
O
projeto começou com a criação de um sistema que ajudaria com agenda, prontuário
eletrônico e cadastro de pacientes, por exemplo. "Em um mês e pouco ficou
pronto. Ajustamos e passamos para alguns profissionais", disse.
Em
2024, veio a ideia de incorporar inteligência artificial. "Tive um
insight: e se houvesse um assistente dentro da terapia, da sua sessão, que
anotasse tudo que você falou e tudo que o paciente falou, e depois entregasse
um relatório detalhado do que aconteceu. Será que ajudaria?"
Gustavo
lembra que a esposa adorou a ideia. Uma das dificuldades dos terapeutas, disse,
é justamente dividir a atenção entre o paciente e o bloco de notas.
"Quando
procurei na internet só achei sistemas de gestão, como o que eu tinha criado.
Mas não tinha nada parecido com esse assistente, que acabei criando. Fomos os
primeiros a fazer", afirmou.
Landgraf
disse que houve resistência inicial, especialmente pelo receio de ter uma
gravação com as falas dos pacientes. Então decidiu que a plataforma não
guardaria nenhuma gravação nem transcrição, que são descartadas ao fim de cada
sessão.
O que
fica armazenado, explica, é um resumo, que segue a abordagem definida por cada
psicólogo.
Ele diz
que há proteção dos dados por criptografia e também por um sistema com duas
senhas, uma para entrar na plataforma e outra abrir os prontuários dos
pacientes. "Também incentivamos que, ao cadastrar o paciente, que sejam
usados nomes genéricos, não o nome real da pessoa."
Outra
vantagem, destaca ele, é que a tecnologia não perde nenhum momento da sessão.
"Muitas
vezes o terapeuta está ali escutando e passa algo pela cabeça, seja pagar uma
conta ou buscar filho na escola. Nesses lapsos o profissional pode acabar
perdendo algo importante do que foi falado. A inteligência artificial não tem
distração."
Ele
destaca que alguns clientes da plataforma atendem até nove pacientes por dia, o
que fazia com que muitos deixassem o trabalho de organizar as anotações das
sessões para o fim de semana.
"As
pessoas dizem: seu sistema me fez ganhar o fim de semana. Hoje conseguem, antes
da sessão, pegar o que já foi falado, o resumo. Além disso, a inteligência
artificial consegue criar questões para abrir a sessão seguinte."
Ele
destaca que é "desejável" buscar o consentimento dos pacientes antes
de fazer uso da tecnologia.
"Como
plataforma não tenho como garantir que os profissionais vão fazer isso. A
pessoa pode falar que fez e não fazer. Mas sugerimos que peça esse
consentimento."
Afirma,
no entanto, que o modelo manual não garante necessariamente mais privacidade.
"Muitos profissionais fazem anotação em papel e deixam isso numa pasta. E
se essa pasta for roubada? Quando uma pessoa está tomando notas, ela não pede
permissão. Ainda assim, de forma geral, incentivamos a comentar com o paciente
que a ferramenta está sendo usada."
Ele
destaca que o uso da plataforma é mais vantajoso em relação a usar uma IA
genérica, como o ChatGPT, por uma série de motivos: a agilidade em receber os
resumos, a segurança de não deixar nenhuma gravação guardada e também a
segurança de que os dados não serão usados para treinar algoritmos.
"Muita
gente usa a versão gratuita dessas IAs. Depois isso pode ser usado (pelas
plataformas) para treinar a própria IA."
O
engenheiro diz que a plataforma não foi criada para substituir os
profissionais.
"Ela
é uma ferramenta para potencializar o tratamento, dar dicas, resumir o que foi
falado e deixar tudo organizado dentro do prontuário daquele paciente. Mas não
substitui terapeuta. A IA é muito amiga, não questiona se alguém está errado.
Além disso, a IA só pega o que foi falado, mas não as expressões humanas, do
rosto, do corpo. "
<><>
'Profissionais devem assumir responsabilidade', diz conselho de psicologia
Carolina
Roseiro, conselheira do Conselho Federal de Psicologia (CFP), diz que as
discussões sobre IA começaram há três anos, mas que o ritmo das mudanças
obrigou o conselho a produzir orientações "com elasticidade".
Ela diz
que o cenário atual já deixou claro que "a IA não é tão inteligente
assim", tem limitações técnicas e éticas e não é neutra, pois
"depende de uma programação, que vai reproduzir discriminações".
Ela
afirma que a orientação central do CFP é que cada profissional assuma
integralmente a responsabilidade pelo uso dessas ferramentas.
"Qualquer
resposta que essa tecnologia der é responsabilidade da pessoa que deu o
comando."
Roseiro
explica que a mediação humana é indispensável porque a IA não estabelece
sozinha limites éticos nem compreende contexto clínico.
A
conselheira reforça que o uso de IA para fins de saúde mental pelo público em
geral não é recomendado, a não ser em ferramentas criadas especificamente para
isso e com um responsável técnico.
O CFP
está preparando duas cartilhas sobre o tema, que serão lançadas em breve. Uma
será voltada aos profissionais e outra, para a população em geral.
Outro
ponto que ela considera fundamental é o consentimento do paciente, por escrito,
que não deve se limitar à autorização para gravar de sessões, mas também a
qualquer uso da IA em qualquer etapa do atendimento.
Carolina
alerta ainda que, se a ferramenta não garantir sigilo, o psicólogo pode ser
responsabilizado por quebra de confidencialidade.
Fonte:
BBC News

Nenhum comentário:
Postar um comentário