Apesar de prometer avanços e acertar em casos simples, ChatGPT erra em diagnósticos e pode custar a vida dos usuários

ChatGPT – Na Grécia Antiga, quem buscava respostas sobre o próprio destino recorria ao Oráculo de Delfos, consultando a sacerdotisa que interpretava os sinais dos deuses. Muitas dessas perguntas envolviam questões de saúde.

Foi também na Grécia que viveu Hipócrates, considerado o pai da medicina moderna. Desde então, mais de dois milênios se passaram, marcados por avanços médicos extraordinários, e ir ao médico se tornou parte da vida cotidiana.

LEIA: Câmara dá mais um passo para isentar IR até R$ 5 mil

Hoje, a tecnologia permite evitar tanto viagens a Delfos quanto idas ao consultório, oferecendo a alternativa digital de consultar o “Dr. Google”. Mas essa prática, que estimula o autodiagnóstico, frequentemente leva a erros – e, para o Dr. Google, quase tudo termina em câncer.

Esse problema é agravado pela propagação de desinformação na área da saúde. Um em cada quatro espanhóis acredita que a internet está repleta de fake news médicas, o que levou instituições profissionais a promover campanhas sobre o uso consciente das informações online.

Com o surgimento de ferramentas de inteligência artificial (IA), como o ChatGPT, o Dr. Google ganhou concorrência. Há quem enxergue nessas tecnologias uma revolução na medicina.

Entretanto, o “Dr. ChatGPT” também tem falhas sérias: enquanto pode acertar em diagnósticos comuns, pode errar grosseiramente em outros. E, na medicina, um erro pode ser fatal – como no caso de um paciente que, após confiar na resposta do ChatGPT, adiou o atendimento de um AVC, colocando sua vida em risco.

Será que a IA pode substituir o trabalho médico? Para Shunsuke Koga, professor da Universidade da Pensilvânia, a resposta é negativa.

“Embora tenha potencial para apoiar os profissionais de saúde e melhorar os processos de diagnóstico, também existe um risco significativo de desinformação e atrasos no diagnóstico quando essas ferramentas são usadas de forma inadequada por pessoas sem experiência médica”, alerta.

Ou seja, o uso da IA pode ajudar, mas jamais deve tomar o lugar do especialista humano.

Parece mais inteligente do que é

Os avanços em IA costumam ser divulgados destacando os êxitos – e ignorando as limitações. Entre os sistemas mais populares, os chats como o ChatGPT têm um comportamento enganoso: exibem confiança mesmo quando estão errados, e raramente admitem incertezas.

Isso acontece porque esses sistemas são treinados para gerar respostas bem formuladas, mas não pensam como seres humanos.

Se questionado sobre quanto é “um mais um”, o ChatGPT tende a responder “dois” – não porque compreende a operação, mas porque aprendeu que essa é a resposta esperada com base nos dados com os quais foi treinado. É um exemplo semelhante ao “quarto chinês”, experimento mental de John Searle, segundo o qual manipular símbolos corretamente não significa entender o que se está fazendo.

Além disso, por responder com fluência e segurança, o ChatGPT pode passar uma imagem de inteligência acima do que realmente possui. Isso reforça a ilusão de que se trata de uma IA “geral”, quando na verdade ainda está longe disso.

E aí reside o perigo: imaginar que ela seja capaz de tomar decisões complexas – como um diagnóstico médico – é superestimar suas habilidades.

Quem responde pelos erros da IA?

O uso da IA na medicina exige atenção redobrada por vários motivos. O primeiro é o risco de viés: como esses sistemas aprendem a partir de dados, qualquer preconceito nos dados de treinamento tende a ser reproduzido pela IA.

Mas o aspecto mais delicado é a responsabilidade. Quando uma IA fornece um diagnóstico incorreto, quem assume as consequências?

Se o ChatGPT disser que você não precisa de visto para uma viagem, isso pode gerar transtornos. Mas um erro sobre sua saúde pode custar sua vida.

Diante disso, a recomendação de especialistas é clara: o ideal é aliar a IA ao conhecimento médico, estratégia que já se mostrou eficaz em diversas situações reais. A tecnologia deve ser um complemento, e não um substituto.

O fator humano

Talvez a questão central não seja apenas o uso do ChatGPT para questões de saúde, mas o declínio do pensamento crítico. A IA, quando bem utilizada, é uma ferramenta poderosa, com aplicações valiosas – como resumir, traduzir ou gerar textos.

No entanto, ainda é indispensável revisar cuidadosamente os conteúdos gerados por essas ferramentas, corrigindo falhas com base no bom senso e no conhecimento especializado.

Estudos já indicam que o uso excessivo da IA pode afetar negativamente a capacidade humana de raciocínio crítico.

Por isso, é essencial treinar nossa habilidade de analisar as respostas que essas ferramentas oferecem. Essa formação exige esforço, mas é fundamental em um cenário onde chats conversacionais estão em toda parte. Na área da saúde, isso se traduz na importância do juízo clínico.

Ainda que a agilidade do ChatGPT possa atrair quem busca respostas rápidas, o julgamento de um médico qualificado continua, até hoje, sendo insubstituível. Em resumo: você pode até deixar de ir a Delfos — mas jamais de procurar um profissional de saúde.

(Com informações de O Globo)
(Foto: Reprodução/Freepik/pixaflow)