Nova funcionalidade permite que agentes de IA revisem interações anteriores para identificar erros, aprender padrões e aprimorar respostas de forma automática

Claude – A Anthropic anunciou nesta quarta-feira (6) uma nova funcionalidade para o Claude que promete tornar os agentes de inteligência artificial mais autônomos no processo de aprendizado. Batizado de “dreaming”, o recurso cria sessões automáticas em que a IA revisa suas próprias interações para aperfeiçoar seu desempenho.

A proposta é inspirada no comportamento humano de sonhar, embora com funcionamento técnico voltado à análise de dados. Durante essas sessões, o sistema recupera conversas e processos anteriores armazenados em banco de dados para examinar padrões de comportamento, identificar falhas recorrentes e compreender preferências dos usuários.

LEIA: Robô inspirado em cães usa IA para criar conexão emocional

O recurso foi desenvolvido para atuar junto ao Claude Managed Agents, ferramenta lançada pela Anthropic em abril. A funcionalidade permite que usuários criem e implementem seus próprios agentes de IA, enquanto a empresa fornece a infraestrutura necessária para execução e monitoramento das tarefas.

Segundo a companhia, o objetivo do “dreaming” é manter os agentes constantemente refinados em segundo plano. A IA utiliza as informações coletadas para ajustar a API e melhorar a memória operacional, aumentando a capacidade de resposta e reduzindo erros ao longo do uso.

A Anthropic acredita que a tecnologia pode ser especialmente útil em projetos longos ou que dependam de múltiplos agentes de IA trabalhando simultaneamente. Nesse cenário, a revisão contínua das interações ajudaria a diminuir entregas de baixa qualidade e tornar os sistemas mais eficientes.

A funcionalidade só pode ser utilizada por meio do Managed Agents, que foi criado para simplificar a execução de projetos envolvendo inteligência artificial. O sistema usa um framework pré-otimizado para o Claude, responsável por gerenciar conversas, lidar com falhas e manter a operação dos agentes.

Essa não é a primeira vez que a Anthropic utiliza conceitos associados ao comportamento humano para apresentar recursos de inteligência artificial. Nos últimos meses, a empresa já havia mencionado em documentos internos a possibilidade de desenvolver algum tipo de consciência para o chatbot Claude, ideia que não chegou a ser implementada.

O recurso “dreaming” está disponível inicialmente em formato de prévia e exige solicitação de acesso por parte dos desenvolvedores. Já o Managed Agents pode ser utilizado normalmente e, segundo a Anthropic, já foi adotado por grandes empresas para implementação de serviços.

(Com informações de Tecmundo)

(Foto: Reprodução/Imagem gerada com IA)