Estudo revela que até modelos avançados, como o GPT-4 omni, têm dificuldade em distinguir crenças pessoais de informações objetivas

IAs – Modelos de inteligência artificial continuam demonstrando limitações em tarefas que exigem discernimento entre fatos e opiniões. Um estudo divulgado na revista Nature Machine Intelligence mostrou que, mesmo entre os sistemas mais avançados do mercado, como o GPT-4 omni, da OpenAI, e o DeepSeek R1, ainda há falhas significativas ao lidar com esse tipo de distinção.

De acordo com os resultados, as IAs têm dificuldade em reconhecer quando uma crença é falsa, principalmente quando expressa em primeira pessoa. Nessas situações, o desempenho dos modelos cai consideravelmente. No entanto, quando o mesmo tipo de avaliação envolve crenças atribuídas a outras pessoas, a taxa de acerto sobe, alcançando até 95% de precisão.

LEIA: Astronautas chineses fazem o primeiro churrasco no espaço da história

A pesquisa reforça que, apesar do avanço impressionante da inteligência artificial nos últimos anos, ainda existem fronteiras importantes a serem superadas, especialmente nas áreas que envolvem interpretação subjetiva e julgamento de contexto.

Esse é o destaque da semana na coluna Fala AI, com Roberto Pena Spinelli, físico formado pela USP e especialista em Machine Learning pela Universidade de Stanford. Spinelli é pesquisador na área de Inteligência Artificial e analisa, nesta edição, os desafios e implicações desses resultados para o futuro das IAs.

(Com informações de Olhar Digital)
(Foto: Reprodução/Freepik/3Dsss)