Nova ferramenta integrada ao Claude Code usa agentes de IA para revisar automaticamente solicitações de código

IA – A ascensão da inteligência artificial (IA) generativa no desenvolvimento de software parecia seguir um roteiro bem definido: sistemas automatizados escreveriam código enquanto humanos ficariam responsáveis pela revisão. Esse modelo, no entanto, acaba de ser colocado em xeque após um novo movimento da Anthropic.

A empresa apresentou uma ferramenta que automatiza justamente essa etapa final do processo, considerada até então uma das principais funções humanas no ciclo de desenvolvimento.

LEIA: Sindplay lança curso de soft skills com base na Terapia Cognitivo-Comportamental

Gargalo na revisão

O avanço da chamada programação intuitiva, em que desenvolvedores utilizam linguagem natural para instruir sistemas de IA a gerar código, impulsionou a produtividade nas empresas. Segundo a Anthropic, a quantidade de código produzida por seus engenheiros cresceu 200% no último ano.

Esse aumento, porém, trouxe um efeito colateral: o volume elevado de código tornou a revisão um gargalo. Muitas solicitações de pull request, que precisam ser avaliadas antes da integração, passaram a ser analisadas de forma superficial ou insuficiente.

Solução da Anthropic

Para enfrentar esse problema, a empresa lançou o Code Review, ferramenta integrada ao Claude Code que utiliza uma equipe de agentes de IA para revisar automaticamente o código assim que uma solicitação de pull request é aberta. O sistema já está disponível em versão prévia para clientes dos planos Team e Enterprise.

Cat Wu, gerente de produto da Anthropic, explicou ao TechCrunch que a principal dúvida dos clientes era recorrente: “Agora que o Claude Code está gerando muitas solicitações de pull request, como posso garantir que elas sejam revisadas de forma eficiente?”

Como funciona

Os agentes de IA operam de forma autônoma e simultânea, analisando o código sob diferentes perspectivas. Um agente final consolida os resultados, elimina duplicidades e prioriza os problemas encontrados com base na gravidade.

O feedback é entregue ao desenvolvedor por meio de comentários destacados e anotações específicas no código. O foco está em erros lógicos, e não em estilo, para reduzir ruído no processo.

Os problemas são classificados por cores: vermelho para falhas críticas, amarelo para questões que exigem atenção e roxo para problemas relacionados a código preexistente.

Impacto nos resultados

Antes da implementação da ferramenta, apenas 16% das solicitações de pull request recebiam feedback relevante. Com o Code Review, esse número subiu para 54%.

Em alterações maiores, com mais de 1.000 linhas de código, 84% apresentaram problemas identificados, com média de 7,5 falhas por revisão. Menos de 1% dos apontamentos foram considerados incorretos pelos engenheiros.

Em um dos casos relatados, uma alteração de uma única linha foi classificada como crítica por potencialmente comprometer a autenticação do sistema. O erro foi corrigido antes da integração, e o próprio engenheiro admitiu que não o teria identificado sozinho.

Novo papel dos desenvolvedores

Nos últimos anos, consolidou-se a ideia de que programadores passariam a atuar como revisores de código gerado por IA. Com a automação dessa etapa, essa função também começa a ser transformada.

A ferramenta da Anthropic não elimina a participação humana, já que não aprova automaticamente as alterações, mas reduz significativamente o papel direto na revisão. O desenvolvedor passa a atuar mais como um árbitro final do processo.

Custo da automação

O uso da ferramenta tem custo baseado no consumo de tokens. A Anthropic estima que cada revisão varia entre US$ 15 e US$ 25 (entre R$ 77 e R$ 129), dependendo da complexidade do código.

A empresa defende que o investimento é justificável, especialmente em grandes empresas de tecnologia, onde falhas não detectadas podem gerar prejuízos significativamente maiores.

(Com informações de Xataka)

(Foto: Reprodução/Freepik/DC Studio)