Como a
IA generativa pode ajudar médicos? Entenda as possibilidades
A inteligência
artificial (IA) tem promovido grandes avanços nos cuidados de saúde em diversas
áreas. Desde a precisão diagnóstica até o suporte a tratamentos personalizados,
passando pela automação de tarefas administrativas e o empoderamento dos
pacientes na tomada de decisões, a IA vem se integrando rapidamente aos fluxos
de trabalho do setor.
Esses avanços não apenas
aliviam a carga dos profissionais de saúde, mas também ampliam o acesso a
tecnologias inovadoras, beneficiando tanto especialistas quanto o público em
geral.
O termo IA engloba
diversas tecnologias, incluindo o aprendizado de máquina (machine learning,
ML), que utiliza algoritmos e modelos estatísticos para aprender e se adaptar
com base em dados. O aprendizado profundo (deep learning), uma subárea do ML,
refina modelos pré-treinados para realizar tarefas complexas, como
reconhecimento de imagens e fala.
Além disso, a IA
generativa cria novos conteúdos por meio de modelos gerativos, como ferramentas
de produção de texto. Grandes modelos de linguagem (Large Language Models,
LLMs), como o ChatGPT, representam um marco significativo, gerando textos
inéditos e similares aos produzidos por humanos a partir de grandes volumes de
dados.
O aprendizado de máquina
pode ser descrito como uma abordagem matemática para o reconhecimento de
padrões, como a regressão, que aprimora sua precisão conforme mais dados são
processados. Entre as técnicas comuns estão árvores de decisão, gradient
boosting e redes neurais. Estas últimas formam a base do aprendizado profundo,
que utiliza múltiplas camadas de reconhecimento de padrões para analisar dados
complexos, como imagens médicas.
Um marco no aprendizado
profundo foi o desenvolvimento das redes neurais convolucionais, entre 2010 e
2012, permitindo uma classificação detalhada de imagens. Essa tecnologia
impulsionou avanços como a análise de radiografias de tórax para prever riscos
cardiovasculares, ampliando o uso de exames de rotina para novas aplicações.
·
IA generativa na prática médica
A IA generativa cria
conteúdos inéditos, como imagens ou textos, por meio de refinamento iterativo a
partir de comandos específicos. Apesar de promissora, apresenta limitações,
incluindo a possibilidade de gerar resultados imprecisos ou fictícios,
conhecidos como “alucinações”.
Na saúde, a IA
generativa já demonstra utilidade em diversas áreas:
- Radiologia: análise
de exames como radiografias, ultrassom, tomografias computadorizadas (TC)
e ressonâncias magnéticas (RM) para detectar anormalidades.
- Patologia: identificação
de padrões em lâminas histopatológicas para diagnósticos, como câncer.
- Detecção Precoce: avaliação de dados clínicos para identificar sinais
iniciais de doenças, como diabetes, doenças cardiovasculares,
insuficiência respiratória e câncer.
- Prontuários: automatização
do registro médico, com geração de notas clínicas e resumos.
- Automação de Fluxo de Trabalho: redução de tarefas administrativas, como agendamentos,
faturamento e documentações.
- Tarefas Repetitivas: otimização do tempo dos profissionais de saúde,
permitindo que se concentrem em cuidados diretos ao paciente.
- Descoberta de Novas Drogas: identificação de alvos biológicos (como proteínas ou
genes) e criação de novas moléculas.
- Pesquisa Clínica: planejamento e monitoramento de estudos clínicos, análise
de dados e automatização de tarefas administrativas relacionadas.
Outras aplicações
incluem cirurgia robótica, monitoramento por dispositivos vestíveis
(wearables), saúde mental, telemedicina, educação médica e combate a epidemias.
Na hematologia, a IA auxilia
na análise de lâminas digitais preparadas a partir de coletas de sangue ou
medula óssea, identificando células normais e anomalias, como células
leucêmicas ou alterações nos glóbulos vermelhos. Essas ferramentas fornecem
suporte para decisões clínicas, sugerindo possíveis diagnósticos ou destacando
áreas de interesse em lâminas para revisão pelo hematologista. Além disso,
sistemas baseados em IA classificam cromossomos na citogenética e identificam
padrões em citometria de fluxo, contribuindo para a classificação de subtipos
de doenças, como leucemias e linfomas, com maior rapidez e precisão.
Embora promissora, a
implementação da IA exige rigor para garantir precisão e confiabilidade. A
possibilidade de “alucinações” preocupa profissionais e instituições, tornando
essencial a supervisão humana, além de regulação e controle dessas tecnologias.
·
Construindo a confiança dos pacientes na IA
Pacientes expressam
preocupações quanto ao uso da IA, como erros diagnósticos, privacidade de dados
e redução da interação humana. Para superar essas barreiras, é crucial reforçar
que a IA é uma ferramenta de apoio, e não um substituto, no processo clínico.
Exemplos práticos, como sistemas que verificam interações medicamentosas ou
agilizam o atendimento em emergências, demonstram seus benefícios diretos.
Garantir que os
profissionais de saúde continuem no centro das decisões clínicas é vital para
preservar a relação humana na medicina e tranquilizar os pacientes. Além disso,
o monitoramento rigoroso do desenvolvimento de modelos de IA – desde a coleta
de dados até sua aplicação – é fundamental para garantir que sejam éticos,
representativos e seguros. Embora a IA possa revolucionar diagnósticos e
tratamentos, enfrenta desafios como privacidade, viés algorítmico e falta de
transparência.
·
Conclusão
A IA representa uma
oportunidade transformadora na saúde, mas sua integração deve ser orientada
pela transparência, ética e foco no paciente. Como ferramenta de suporte, ela
amplia o potencial inovador dos profissionais de saúde, preservando a empatia e
o cuidado humano que são essenciais à prática médica.
¨
É seguro usar ChatGPT para
terapia? Veja o que especialistas dizem
Chatbots de inteligência
artificial (IA) — como o ChatGPT, da OpenAI — têm sido utilizados,
recentemente, para fazer terapia. Apelidado de “Terapeuta GPT“, o programa não aconselha os usuários a substituir um terapeuta
real pela ferramenta. Ainda assim, muitos usuários de redes sociais estão
recorrendo a chatbots para se consultar.
Mya Dunham, 24 anos, tem
recorrido ao aplicativo ChatGPT nos
últimos dois meses quando precisa de conselhos. Cerca de duas vezes por semana,
Dunham escreve seus sentimentos e os envia ao bot para análise e feedback.
“Meu objetivo é aprender
uma nova perspectiva, ter um ponto de vista diferente, porque o que penso na
minha cabeça será baseado em meus próprios sentimentos”, diz Dunham.
Dunham usou o chatbot
pela primeira vez em outubro após ver alguém postar sobre uma experiência
positiva nas redes sociais. “Minha frase de abertura foi: ‘Honestamente, só
preciso de alguém para conversar, posso falar com você?’ E o bot respondeu:
‘Absolutamente’. E foi muito mais acolhedor e convidativo do que eu esperava”,
conta.
Quando Dunham postou
sobre sua experiência no TikTok, os comentários ficaram divididos sobre o uso
de chatbots dessa maneira. Alguns disseram que também recorrem a ele para fins
terapêuticos, enquanto outros expressaram dúvidas sobre se sentiriam
confortáveis conversando com um robô.
Especialistas em saúde mental afirmam
que essa tecnologia em desenvolvimento pode ser benéfica em certas situações,
mas também há riscos a serem considerados.
<><> Usando
chatbots de IA como terapeutas
Dunham, que é de
Atlanta, já tentou terapia com humanos algumas vezes, mas conta que prefere o
chatbot por sua falta de expressões faciais. O bot não parece julgá-la, em sua
percepção.
“Alguns usuários,
algumas populações, podem estar mais propensos a se abrir ou se revelar mais
quando conversam com um chatbot de IA, em comparação com um ser humano, (e) há
algumas pesquisas que apoiam sua eficácia em ajudar algumas populações com
ansiedade leve e depressão leve”, afirma Russell Fulmer, presidente da
Força-Tarefa sobre IA da American Counseling Association e professor e diretor
de programas de aconselhamento de pós-graduação na Universidade Husson em
Bangor, Maine.
“Por outro lado, há
algumas preocupações éticas e coisas com as quais precisamos ter cuidado”,
observou ele.
Fulmer recomenda que as
pessoas usem chatbots em colaboração com aconselhamento humano. Um terapeuta
pode ajudar a navegar pelos objetivos pessoais do paciente com o uso dos bots e
esclarecer quaisquer mal-entendidos da sessão com o chatbot.
Houve algumas pesquisas
sobre chatbots projetados por clínicos que podem potencialmente ajudar as
pessoas a se educarem mais sobre saúde mental, incluindo mitigação de
ansiedade, construção de hábitos saudáveis e redução do tabagismo.
Mas os riscos que vêm
com o uso de chatbots gerais são que eles podem não ter sido projetados com a
saúde mental em mente, segundo Marlynn Wei, psiquiatra e fundadora de uma
prática de psicoterapia holística em Nova York. Os bots podem não ter
“parâmetros de segurança e maneiras de identificar se o problema precisa ser
encaminhado para um clínico ou um profissional humano”.
Os chatbots podem
fornecer informações incorretas ou informações que o usuário quer ouvir em vez
do que um terapeuta humano recomendaria tendo em mente a saúde mental, segundo
Wei, que tem um projeto de performance que explora as reações das pessoas a
clones de IA delas mesmas e de seus entes queridos.
“Os (problemas) são as
“alucinações” e vieses e imprecisões”, conta Wei. “Tenho muita esperança na IA
como uma forma de combinação e ampliação do trabalho, mas por si só, ainda
existem preocupações sobre o viés que existe dentro da IA, e também o fato de
que ela pode inventar coisas (…) Acho que é aí que ter um terapeuta humano
seria mais útil.”
Os serviços de IA também
têm diferentes diretrizes e restrições de segurança em termos do que os bots
podem discutir com os usuários.
Os chatbots podem ser
mais acessíveis para certas pessoas, como aquelas que não têm dinheiro ou
seguro para terapia ou que não têm tempo em suas agendas, já que alguns
chatbots são gratuitos e podem responder dia e noite, segundo Fulmer.
“Nesses casos, um
chatbot seria preferível a nada”, mas as pessoas precisam entender o que um
chatbot “pode e não pode fazer”, conta, acrescentando que um robô não é capaz
de certos traços humanos como empatia.
Fulmer não aconselha
menores ou outras populações vulneráveis a usar os chatbots sem orientação e
supervisão de pais, professores, mentores ou terapeutas.
A Character.AI, uma
empresa de chatbot de inteligência artificial,
está atualmente enfrentando um processo movido por duas famílias que a acusaram
de fornecer conteúdo sexual a seus filhos e incentivar a automutilação e
violência. Separadamente, uma mãe da Flórida entrou com uma ação judicial em
outubro alegando que a plataforma foi responsável pelo suicídio de seu filho de
14 anos, como a CNN informou anteriormente.
Chelsea Harrison, chefe
de comunicações da Character.AI, explica à CNN anteriormente
que a empresa não comenta sobre litígios pendentes, mas que “nosso objetivo é
fornecer um espaço que seja envolvente e seguro para nossa comunidade.” A
empresa diz que fez várias atualizações de segurança, incluindo garantir que os
bots direcionarão os usuários para recursos de terceiros se mencionarem
automutilação ou suicídio.
<><>
Chatbots vs. terapeutas humanos
Dr. Daniel Kimmel,
psicólogo e professor assistente de psiquiatria clínica na Universidade
Columbia, experimentou a terapia com ChatGPT em maio de 2023, dando ao chatbot
um paciente hipotético e comparando as respostas com o que Kimmel teria
oferecido ao paciente.
Ele diz à CNN que o
chatbot “fez um trabalho incrivelmente bom em soar como um terapeuta e usar
muitas das técnicas… que um terapeuta usaria para normalizar e validar a
experiência de um paciente (e) fazer certos tipos de recomendações gerais, mas
precisas.”
Mas o que faltava era a
curiosidade que um psicoterapeuta humano poderia ter com um paciente, fazendo
perguntas que vão um pouco além do que o paciente inicialmente diz e que
“conectam os pontos sob a superfície”, acrescenta.
“Como terapeuta,
acredito que os terapeutas estão fazendo pelo menos três coisas ao mesmo tempo.
Estamos ouvindo o que os pacientes estão dizendo em suas palavras. Você tem que
fazer isso para estar na conversa”, afirma Kimmel. “Então, no fundo da sua
mente, você está tentando conectar o que eles estão dizendo a coisas maiores
que o paciente disse antes (e) conceitos e teorias com os quais você está
familiarizado em sua experiência, e então finalmente filtrando o resultado
disso através de ideias sobre o que será mais útil para o paciente.”
Neste momento, os
chatbots podem representar riscos se não cumprirem essas etapas e, em vez
disso, fornecerem orientações que o paciente pode não estar pronto para ouvir
ou que podem não ser úteis na situação, segundo o especialista.
Além disso, as conversas
com terapeutas profissionais são cobertas pela Lei de Portabilidade e
Responsabilidade do Seguro de Saúde, conhecida como HIPAA, e suas informações
de saúde são privadas e protegidas, segundo Wei. Os chatbots gerais
frequentemente não estão em conformidade com a lei federal que restringe a
divulgação de informações médicas, e as empresas por trás dos bots
frequentemente aconselham os usuários a não compartilhar informações sensíveis
em suas conversas com os bots, acrescenta Wei.
Por fim, Kimmel conta
que pesquisas futuras sobre chatbots de IA seriam benéficas para entender seu
potencial e aplicações para a saúde mental. “Esta não é uma tecnologia que vai
desaparecer”.
Dunham diz que acredita
que a tecnologia poderia ser útil para pessoas como ela que se sentem mais
introvertidas e querem expressar seus sentimentos sem outra pessoa presente.
“Temos que priorizar
nossa saúde mental acima de tudo”, afirma Dunham “Mesmo que não pareça uma
forma tradicional (de terapia), não devemos menosprezá-la, porque isso pode
ajudar muitas pessoas.”
Para ela, “a lição seria
simplesmente não julgar a próxima pessoa pela forma como ela se cura.”
Fonte: CNN Brasil
Nenhum comentário:
Postar um comentário