Dr.
ChatGPT entra no consultório sem pedir licença
O
ChatGPT deixou de ser curiosidade tecnológica para ocupar um espaço concreto
dentro dos consultórios. Já é, segundo estudo publicado pela revista The Lancet
com foco na Catalunha, a ferramenta de inteligência artificial mais utilizada
por médicos de família durante consultas clínicas.
Não se
trata mais de futuro — trata-se de prática corrente. E, como toda mudança
silenciosa que altera rotinas sensíveis, ela carrega ganhos evidentes e riscos
que ainda não foram plenamente enfrentados.
Uma
paciente estranhou ao ver o médico falando sozinho após o atendimento. Não era
descuido nem excentricidade. Ele ditava um relatório clínico que seria
processado por um sistema de inteligência artificial e convertido em texto
estruturado.
A cena,
que há poucos anos pareceria deslocada, hoje se normaliza. O problema é que a
normalização costuma preceder a reflexão — e isso, na medicina, cobra um preço
alto.
Os
números ajudam a dimensionar o cenário. Em 2024, centros de atenção primária na
Catalunha registraram dezenas de milhões de atendimentos. Sob pressão
crescente, médicos passaram a recorrer à IA para redigir relatórios, organizar
informações, sugerir hipóteses diagnósticas e reduzir o peso burocrático que
consome horas preciosas. O ganho de eficiência é real. Mas eficiência,
isoladamente, nunca foi critério suficiente para legitimar práticas médicas.
Eu
acompanho esse movimento com atenção redobrada. Há, sem dúvida, um alívio
operacional que pode devolver ao médico algo que o sistema havia sequestrado: o
tempo de escuta. Mas também há uma transformação mais profunda, menos visível e
mais inquietante. Quando uma máquina passa a mediar etapas essenciais do
raciocínio clínico, não estamos apenas acelerando processos — estamos
redesenhando a própria natureza da decisão médica.
O
estudo revela um dado que desmonta um clichê recorrente: são os médicos mais
experientes que lideram a adoção dessas ferramentas.
Isso
não elimina, porém, um problema central.
Muitos
profissionais utilizam a inteligência artificial sem domínio claro de seus
limites. E isso cria uma zona cinzenta perigosa, onde confiança e delegação se
misturam sem critérios sólidos.
Não
consigo ignorar a questão da responsabilidade.
Quando
um médico transfere parte da análise, da escrita ou mesmo da formulação de
hipóteses para um sistema, ele compartilha — ou dilui — a autoria da decisão.
Mas a responsabilidade não se dilui na mesma proporção. Em caso de erro, não há
algoritmo que responda diante do paciente. A cadeia de responsabilidade
continua sendo humana, ainda que o processo já não seja integralmente humano.
Conheço
amigos que inseriram exames laboratoriais de grandes redes no ChatGPT e se
espantaram: ao confrontar com o médico, a leitura era quase idêntica. Isso me
inquieta. Se essa prática se difundir, quantos optarão pela conveniência
imediata, substituindo a consulta pela ilusão de autonomia clínica?
Esse
deslocamento não é trivial. A relação médico-paciente sempre foi sustentada por
algo que nenhuma tecnologia conseguiu replicar: confiança construída na
presença, na escuta, na responsabilidade compartilhada.
Quando
o paciente passa a buscar respostas diretas em sistemas automatizados, não está
apenas economizando tempo — está alterando a lógica do cuidado, deslocando o
eixo da decisão para um território onde não há vínculo, nem compromisso, nem
consequência direta.
Resta
uma pergunta que não admite suavizações: temos real consciência do que
colocamos em risco ao trocar o olhar clínico de um médico de confiança por
respostas geradas por sistemas atravessados por vieses, falhas, lacunas e até
alucinações?
Isto
porque a medicina não se esgota na leitura de dados; ela exige
responsabilidade, contexto, prudência e compromisso com a vida.
E há um
ponto ainda mais sensível, que não pode ser varrido para debaixo do tapete:
terá o GPT qualquer noção do que seja ética médica?
Algoritmos
não juram, não respondem moralmente, não carregam o peso de um erro diante de
um paciente concreto. Delegar decisões clínicas a sistemas assim não é apenas
uma escolha técnica — é uma escolha ética de alto impacto.
Seria
simplista defender uma rejeição pura e simples da inteligência artificial. A
medicina sempre incorporou ferramentas: do estetoscópio ao prontuário
eletrônico, da tomografia aos sistemas de apoio à decisão.
Então
como explicar esse meu espanto? É que a diferença, agora, está na profundidade
da intervenção.
A IA
não apenas auxilia — ela interpreta, sugere, escreve e, em muitos casos,
influencia decisões. isso não é pouca coisa, ainda mais se tratando do bem mais
precioso que temos — nossa saúde.
O que
se impõe, portanto, não é resistência cega nem adesão acrítica. É formação
rigorosa, consciência dos limites e, sobretudo, clareza ética.
Médicos
precisam ser preparados não apenas para usar essas ferramentas, mas para
confrontá-las, questioná-las e, quando necessário, ignorá-las. A se acreditar
que o Conselho Federal de Medicina e os conselhos regionais de medicina
precisam estar mais do que atentos a esse novo quadro. Eles precisam evoluir e
de forma muito rápida e eficiente. Não podem ser instâncias burocráticas,
carimbadoras de protocolos, tribunais que suspendem ou não de seus associados a
prática médica — agora é outro o nível.
A cena
do médico falando sozinho deixa de ser curiosa e passa a ser simbólica. Talvez
estejamos, todos, aprendendo a dialogar com uma presença nova — silenciosa,
veloz, sedutora.
Mas,
como não poderia deixar de ser, existe uma linha que não pode ser cruzada sem
consequências: aquela que separa o apoio tecnológico da substituição do
julgamento humano.
Porque,
no fim, a pergunta não é sobre o que a inteligência artificial é capaz de
fazer. A pergunta é outra, mais direta e mais exigente: até onde estamos
dispostos a abrir mão da responsabilidade humana em nome da conveniência?
Fonte:
Por Washington Araújo, em Brasil 247

Nenhum comentário:
Postar um comentário