segunda-feira, 20 de janeiro de 2025

Como a IA generativa pode ajudar médicos? Entenda as possibilidades

A inteligência artificial (IA) tem promovido grandes avanços nos cuidados de saúde em diversas áreas. Desde a precisão diagnóstica até o suporte a tratamentos personalizados, passando pela automação de tarefas administrativas e o empoderamento dos pacientes na tomada de decisões, a IA vem se integrando rapidamente aos fluxos de trabalho do setor.

Esses avanços não apenas aliviam a carga dos profissionais de saúde, mas também ampliam o acesso a tecnologias inovadoras, beneficiando tanto especialistas quanto o público em geral.

O termo IA engloba diversas tecnologias, incluindo o aprendizado de máquina (machine learning, ML), que utiliza algoritmos e modelos estatísticos para aprender e se adaptar com base em dados. O aprendizado profundo (deep learning), uma subárea do ML, refina modelos pré-treinados para realizar tarefas complexas, como reconhecimento de imagens e fala.

Além disso, a IA generativa cria novos conteúdos por meio de modelos gerativos, como ferramentas de produção de texto. Grandes modelos de linguagem (Large Language Models, LLMs), como o ChatGPT, representam um marco significativo, gerando textos inéditos e similares aos produzidos por humanos a partir de grandes volumes de dados.

O aprendizado de máquina pode ser descrito como uma abordagem matemática para o reconhecimento de padrões, como a regressão, que aprimora sua precisão conforme mais dados são processados. Entre as técnicas comuns estão árvores de decisão, gradient boosting e redes neurais. Estas últimas formam a base do aprendizado profundo, que utiliza múltiplas camadas de reconhecimento de padrões para analisar dados complexos, como imagens médicas.

Um marco no aprendizado profundo foi o desenvolvimento das redes neurais convolucionais, entre 2010 e 2012, permitindo uma classificação detalhada de imagens. Essa tecnologia impulsionou avanços como a análise de radiografias de tórax para prever riscos cardiovasculares, ampliando o uso de exames de rotina para novas aplicações.

·        IA generativa na prática médica

A IA generativa cria conteúdos inéditos, como imagens ou textos, por meio de refinamento iterativo a partir de comandos específicos. Apesar de promissora, apresenta limitações, incluindo a possibilidade de gerar resultados imprecisos ou fictícios, conhecidos como “alucinações”.

Na saúde, a IA generativa já demonstra utilidade em diversas áreas:

  • Radiologia: análise de exames como radiografias, ultrassom, tomografias computadorizadas (TC) e ressonâncias magnéticas (RM) para detectar anormalidades.
  • Patologia: identificação de padrões em lâminas histopatológicas para diagnósticos, como câncer.
  • Detecção Precoce: avaliação de dados clínicos para identificar sinais iniciais de doenças, como diabetes, doenças cardiovasculares, insuficiência respiratória e câncer.
  • Prontuários: automatização do registro médico, com geração de notas clínicas e resumos.
  • Automação de Fluxo de Trabalho: redução de tarefas administrativas, como agendamentos, faturamento e documentações.
  • Tarefas Repetitivas: otimização do tempo dos profissionais de saúde, permitindo que se concentrem em cuidados diretos ao paciente.
  • Descoberta de Novas Drogas: identificação de alvos biológicos (como proteínas ou genes) e criação de novas moléculas.
  • Pesquisa Clínica: planejamento e monitoramento de estudos clínicos, análise de dados e automatização de tarefas administrativas relacionadas.

Outras aplicações incluem cirurgia robótica, monitoramento por dispositivos vestíveis (wearables), saúde mental, telemedicina, educação médica e combate a epidemias.

Na hematologia, a IA auxilia na análise de lâminas digitais preparadas a partir de coletas de sangue ou medula óssea, identificando células normais e anomalias, como células leucêmicas ou alterações nos glóbulos vermelhos. Essas ferramentas fornecem suporte para decisões clínicas, sugerindo possíveis diagnósticos ou destacando áreas de interesse em lâminas para revisão pelo hematologista. Além disso, sistemas baseados em IA classificam cromossomos na citogenética e identificam padrões em citometria de fluxo, contribuindo para a classificação de subtipos de doenças, como leucemias e linfomas, com maior rapidez e precisão.

Embora promissora, a implementação da IA exige rigor para garantir precisão e confiabilidade. A possibilidade de “alucinações” preocupa profissionais e instituições, tornando essencial a supervisão humana, além de regulação e controle dessas tecnologias.

·        Construindo a confiança dos pacientes na IA

Pacientes expressam preocupações quanto ao uso da IA, como erros diagnósticos, privacidade de dados e redução da interação humana. Para superar essas barreiras, é crucial reforçar que a IA é uma ferramenta de apoio, e não um substituto, no processo clínico. Exemplos práticos, como sistemas que verificam interações medicamentosas ou agilizam o atendimento em emergências, demonstram seus benefícios diretos.

Garantir que os profissionais de saúde continuem no centro das decisões clínicas é vital para preservar a relação humana na medicina e tranquilizar os pacientes. Além disso, o monitoramento rigoroso do desenvolvimento de modelos de IA – desde a coleta de dados até sua aplicação – é fundamental para garantir que sejam éticos, representativos e seguros. Embora a IA possa revolucionar diagnósticos e tratamentos, enfrenta desafios como privacidade, viés algorítmico e falta de transparência.

·        Conclusão

A IA representa uma oportunidade transformadora na saúde, mas sua integração deve ser orientada pela transparência, ética e foco no paciente. Como ferramenta de suporte, ela amplia o potencial inovador dos profissionais de saúde, preservando a empatia e o cuidado humano que são essenciais à prática médica.

 

¨         É seguro usar ChatGPT para terapia? Veja o que especialistas dizem

Chatbots de inteligência artificial (IA) — como o ChatGPT, da OpenAI — têm sido utilizados, recentemente, para fazer terapia. Apelidado de “Terapeuta GPT“, o programa não aconselha os usuários a substituir um terapeuta real pela ferramenta. Ainda assim, muitos usuários de redes sociais estão recorrendo a chatbots para se consultar.

Mya Dunham, 24 anos, tem recorrido ao aplicativo ChatGPT nos últimos dois meses quando precisa de conselhos. Cerca de duas vezes por semana, Dunham escreve seus sentimentos e os envia ao bot para análise e feedback.

“Meu objetivo é aprender uma nova perspectiva, ter um ponto de vista diferente, porque o que penso na minha cabeça será baseado em meus próprios sentimentos”, diz Dunham.

Dunham usou o chatbot pela primeira vez em outubro após ver alguém postar sobre uma experiência positiva nas redes sociais. “Minha frase de abertura foi: ‘Honestamente, só preciso de alguém para conversar, posso falar com você?’ E o bot respondeu: ‘Absolutamente’. E foi muito mais acolhedor e convidativo do que eu esperava”, conta.

Quando Dunham postou sobre sua experiência no TikTok, os comentários ficaram divididos sobre o uso de chatbots dessa maneira. Alguns disseram que também recorrem a ele para fins terapêuticos, enquanto outros expressaram dúvidas sobre se sentiriam confortáveis conversando com um robô.

Especialistas em saúde mental afirmam que essa tecnologia em desenvolvimento pode ser benéfica em certas situações, mas também há riscos a serem considerados.

<><> Usando chatbots de IA como terapeutas

Dunham, que é de Atlanta, já tentou terapia com humanos algumas vezes, mas conta que prefere o chatbot por sua falta de expressões faciais. O bot não parece julgá-la, em sua percepção.

“Alguns usuários, algumas populações, podem estar mais propensos a se abrir ou se revelar mais quando conversam com um chatbot de IA, em comparação com um ser humano, (e) há algumas pesquisas que apoiam sua eficácia em ajudar algumas populações com ansiedade leve e depressão leve”, afirma Russell Fulmer, presidente da Força-Tarefa sobre IA da American Counseling Association e professor e diretor de programas de aconselhamento de pós-graduação na Universidade Husson em Bangor, Maine.

“Por outro lado, há algumas preocupações éticas e coisas com as quais precisamos ter cuidado”, observou ele.

Fulmer recomenda que as pessoas usem chatbots em colaboração com aconselhamento humano. Um terapeuta pode ajudar a navegar pelos objetivos pessoais do paciente com o uso dos bots e esclarecer quaisquer mal-entendidos da sessão com o chatbot.

Houve algumas pesquisas sobre chatbots projetados por clínicos que podem potencialmente ajudar as pessoas a se educarem mais sobre saúde mental, incluindo mitigação de ansiedade, construção de hábitos saudáveis e redução do tabagismo.

Mas os riscos que vêm com o uso de chatbots gerais são que eles podem não ter sido projetados com a saúde mental em mente, segundo Marlynn Wei, psiquiatra e fundadora de uma prática de psicoterapia holística em Nova York. Os bots podem não ter “parâmetros de segurança e maneiras de identificar se o problema precisa ser encaminhado para um clínico ou um profissional humano”.

Os chatbots podem fornecer informações incorretas ou informações que o usuário quer ouvir em vez do que um terapeuta humano recomendaria tendo em mente a saúde mental, segundo Wei, que tem um projeto de performance que explora as reações das pessoas a clones de IA delas mesmas e de seus entes queridos.

“Os (problemas) são as “alucinações” e vieses e imprecisões”, conta Wei. “Tenho muita esperança na IA como uma forma de combinação e ampliação do trabalho, mas por si só, ainda existem preocupações sobre o viés que existe dentro da IA, e também o fato de que ela pode inventar coisas (…) Acho que é aí que ter um terapeuta humano seria mais útil.”

Os serviços de IA também têm diferentes diretrizes e restrições de segurança em termos do que os bots podem discutir com os usuários.

Os chatbots podem ser mais acessíveis para certas pessoas, como aquelas que não têm dinheiro ou seguro para terapia ou que não têm tempo em suas agendas, já que alguns chatbots são gratuitos e podem responder dia e noite, segundo Fulmer.

“Nesses casos, um chatbot seria preferível a nada”, mas as pessoas precisam entender o que um chatbot “pode e não pode fazer”, conta, acrescentando que um robô não é capaz de certos traços humanos como empatia.

Fulmer não aconselha menores ou outras populações vulneráveis a usar os chatbots sem orientação e supervisão de pais, professores, mentores ou terapeutas.

A Character.AI, uma empresa de chatbot de inteligência artificial, está atualmente enfrentando um processo movido por duas famílias que a acusaram de fornecer conteúdo sexual a seus filhos e incentivar a automutilação e violência. Separadamente, uma mãe da Flórida entrou com uma ação judicial em outubro alegando que a plataforma foi responsável pelo suicídio de seu filho de 14 anos, como a CNN informou anteriormente.

Chelsea Harrison, chefe de comunicações da Character.AI, explica à CNN anteriormente que a empresa não comenta sobre litígios pendentes, mas que “nosso objetivo é fornecer um espaço que seja envolvente e seguro para nossa comunidade.” A empresa diz que fez várias atualizações de segurança, incluindo garantir que os bots direcionarão os usuários para recursos de terceiros se mencionarem automutilação ou suicídio.

<><> Chatbots vs. terapeutas humanos

Dr. Daniel Kimmel, psicólogo e professor assistente de psiquiatria clínica na Universidade Columbia, experimentou a terapia com ChatGPT em maio de 2023, dando ao chatbot um paciente hipotético e comparando as respostas com o que Kimmel teria oferecido ao paciente.

Ele diz à CNN que o chatbot “fez um trabalho incrivelmente bom em soar como um terapeuta e usar muitas das técnicas… que um terapeuta usaria para normalizar e validar a experiência de um paciente (e) fazer certos tipos de recomendações gerais, mas precisas.”

Mas o que faltava era a curiosidade que um psicoterapeuta humano poderia ter com um paciente, fazendo perguntas que vão um pouco além do que o paciente inicialmente diz e que “conectam os pontos sob a superfície”, acrescenta.

“Como terapeuta, acredito que os terapeutas estão fazendo pelo menos três coisas ao mesmo tempo. Estamos ouvindo o que os pacientes estão dizendo em suas palavras. Você tem que fazer isso para estar na conversa”, afirma Kimmel. “Então, no fundo da sua mente, você está tentando conectar o que eles estão dizendo a coisas maiores que o paciente disse antes (e) conceitos e teorias com os quais você está familiarizado em sua experiência, e então finalmente filtrando o resultado disso através de ideias sobre o que será mais útil para o paciente.”

Neste momento, os chatbots podem representar riscos se não cumprirem essas etapas e, em vez disso, fornecerem orientações que o paciente pode não estar pronto para ouvir ou que podem não ser úteis na situação, segundo o especialista.

Além disso, as conversas com terapeutas profissionais são cobertas pela Lei de Portabilidade e Responsabilidade do Seguro de Saúde, conhecida como HIPAA, e suas informações de saúde são privadas e protegidas, segundo Wei. Os chatbots gerais frequentemente não estão em conformidade com a lei federal que restringe a divulgação de informações médicas, e as empresas por trás dos bots frequentemente aconselham os usuários a não compartilhar informações sensíveis em suas conversas com os bots, acrescenta Wei.

Por fim, Kimmel conta que pesquisas futuras sobre chatbots de IA seriam benéficas para entender seu potencial e aplicações para a saúde mental. “Esta não é uma tecnologia que vai desaparecer”.

Dunham diz que acredita que a tecnologia poderia ser útil para pessoas como ela que se sentem mais introvertidas e querem expressar seus sentimentos sem outra pessoa presente.

“Temos que priorizar nossa saúde mental acima de tudo”, afirma Dunham “Mesmo que não pareça uma forma tradicional (de terapia), não devemos menosprezá-la, porque isso pode ajudar muitas pessoas.”

Para ela, “a lição seria simplesmente não julgar a próxima pessoa pela forma como ela se cura.”

 

Fonte: CNN Brasil

 

Nenhum comentário: