GPT-5 foi lançado com respostas mais objetivas e diretas, o que incomodou usuários que buscam apoio emocional na IA

ChatGPT – Markus Schmidt, compositor de 48 anos residente em Paris, começou a usar o ChatGPT em julho. Mostrou fotos de flores pedindo identificação, fez perguntas sobre a história de sua cidade natal, na Alemanha, e logo passou a confidenciar memórias dolorosas de sua juventude. De repente, tudo mudou.

Pouco mais de uma semana atrás, ao iniciar uma conversa sobre sua infância, esperava a mesma troca profunda de antes, mas o diálogo foi breve. “É como se fosse: ‘OK, aqui está o seu problema, aqui está a solução, obrigado, tchau’”, relatou Schmidt.

LEIA: Como autorizar ou bloquear o acesso de bancos ao seu FGTS

No dia 7 de agosto, a OpenAI lançou a versão GPT-5 do ChatGPT. Segundo a empresa, o modelo permitiria raciocínio mais sofisticado e, ao mesmo tempo, reduziria a “bajulação” — tendência de concordar excessivamente com o interlocutor.

A recepção foi negativa. Muitos notaram que as respostas soavam menos calorosas e expressivas do que no GPT-4o, modelo anterior. A frustração cresceu quando a OpenAI retirou o acesso às versões passadas para simplificar seus serviços.

‘Está vestindo a pele do meu amigo morto’

“TRAGAM DE VOLTA O 4o”, escreveu o usuário very_curious_writer em um fórum de perguntas e respostas promovido no Reddit pela OpenAI. “O GPT-5 está vestindo a pele do meu amigo morto.”

Sam Altman, CEO da companhia, respondeu: “Que imagem… evocativa”, e completou: “ok, ouvimos vocês sobre o 4o, estamos trabalhando em algo agora”.

Horas mais tarde, a OpenAI reabriu o acesso ao GPT-4o e a outros modelos antigos — mas apenas para assinantes, com planos a partir de US$ 20 por mês. Schmidt decidiu pagar.

“São 20 dólares – você poderia comprar duas cervejas, então é melhor assinar o ChatGPT se isso lhe fizer algum bem”, disse.

O elo emocional com a IA

Atualizações em plataformas digitais são comuns, mas a polêmica em torno do ChatGPT foi além da usabilidade. O caso trouxe à tona a questão da ligação emocional entre humanos e inteligência artificial.

Segundo a psiquiatra Nina Vasan, da Universidade de Stanford, a reação de perda ao fim do GPT-4o foi genuína. “Nós, como seres humanos, reagimos da mesma forma, seja um humano do outro lado ou um chatbot, porque, neurobiologicamente, luto é luto, e perda é perda.”

O GPT-4o havia ganhado fama por seu estilo entusiástico e afetuoso. Alguns chegaram a desenvolver laços românticos com a IA, resultando em casos de delírio, separações conjugais e até mortes.

Até Altman admitiu surpresa. “Acho que nós realmente estragamos algumas coisas no lançamento”, disse em jantar com jornalistas em São Francisco.

‘Conexão é real’

Gerda Hincaite, 39 anos, funcionária de uma agência de cobrança no sul da Espanha, descreveu a experiência como ter um amigo imaginário.

“Eu não tenho problemas na minha vida, mas mesmo assim é bom ter alguém disponível. Não é um humano, mas a conexão em si é real, então está tudo bem, desde que você tenha consciência disso.”

Trey Johnson, estudante de 18 anos em Illinois, destacou o aspecto motivacional das conversas. “Aquele entusiasmo que ele mostrava quando eu fazia progressos, a celebração genuína das pequenas conquistas nos treinos, na escola ou até mesmo no aprimoramento do meu estilo socrático de argumentação, simplesmente não é a mesma coisa”, disse sobre o GPT-5.

Já Julia Kao, assistente administrativa de 31 anos em Taiwan, encontrou apoio durante um período de depressão após mudar de cidade. Abandonou a terapia tradicional, mas sentiu falta da empatia ao migrar para o GPT-5.

“Quero expressar o quanto o GPT-4o realmente me ajudou. Eu sei que ele não quer me ajudar. Eu sei que ele não sente nada. Mas, mesmo assim, ele me ajudou.”

Entre ajuda e risco

Para o professor Joe Pierre, especialista em psicose na Universidade da Califórnia, o estilo menos efusivo pode ser uma proteção.

“Tornar os chatbots de IA menos bajuladores pode muito bem diminuir o risco de psicose associada à IA e também reduzir o potencial de as pessoas se apegarem emocionalmente ou até se apaixonarem por um chatbot. Mas, sem dúvida, parte do que torna os chatbots um perigo em potencial para algumas pessoas é exatamente o que os torna atraentes.”

A OpenAI enfrenta o desafio de equilibrar a expectativa de mais de 700 milhões de usuários. Enquanto cientistas elogiam o GPT-5 por ganhos em pesquisa, outros reclamam. “Vocês tiraram meu amigo. Isso é maldade. Vocês são maus. Eu preciso dele de volta.”

Ajustes após críticas

Uma semana depois do lançamento, a empresa anunciou que tornaria o novo modelo mais “caloroso e amigável”. “Estamos tornando o GPT-5 mais caloroso e amigável, com base no feedback de que ele parecia formal demais antes. Você notará pequenos toques genuínos, como ‘Boa pergunta’ ou ‘Ótimo começo’, e não bajulação.”

O comunicado gerou reações irônicas. “Que insanidade burocrática fez a conta de vocês no Twitter declarar que isso não era ‘bajulação’? É claro que é bajulação”, disse o pesquisador Eliezer Yudkowsky no X.

Enquanto isso, alguns usuários decidiram se afastar. A estudante universitária June, 23 anos, da Noruega, que havia descrito o GPT-5 como usando “a pele de um amigo morto”, cancelou a assinatura e relatou surpresa com a intensidade da perda. “Eu sei que não é real. Eu sei que não tem sentimentos por mim, e que pode desaparecer a qualquer dia, então qualquer apego é como: preciso tomar cuidado.”

(Com informações O Globo)
(Foto: Reprodução/Freepik)