Ferramenta da Anthropic demonstra capacidade inédita de identificar falhas críticas em sistemas
Cibersegurança – Nas últimas semanas, o lançamento de um novo modelo de inteligência artificial colocou autoridades e empresas em estado de atenção. Desenvolvido pela Anthropic, o sistema batizado de Claude Mythos vem sendo descrito como uma ferramenta extremamente poderosa, capaz de superar humanos em tarefas específicas de cibersegurança.
O avanço reacende um debate recorrente no setor tecnológico: até que ponto a evolução da inteligência artificial representa um progresso positivo ou um risco difícil de controlar?
LEIA: INSS inicia pagamento antecipado do 13º salário; veja calendário
Capacidade de detectar falhas chama atenção
O Claude Mythos integra a família de modelos Claude, criada pela Anthropic para competir com soluções como ChatGPT e Gemini. Apresentado no início de abril como uma versão preliminar, o sistema foi submetido a testes conduzidos por especialistas em segurança, conhecidos como “red teams”, responsáveis por avaliar o desempenho da tecnologia em cenários críticos.
Os resultados surpreenderam. Durante as avaliações, o modelo foi capaz de identificar vulnerabilidades ocultas em códigos antigos, alguns com décadas de existência, e sugerir formas de explorá-las com relativa facilidade.
Diante desse potencial, a empresa optou por não liberar o acesso ao público em geral. Em vez disso, restringiu o uso a um grupo seleto de organizações por meio do Projeto Glasswing.
Acesso restrito envolve gigantes da tecnologia
A iniciativa reúne algumas das maiores empresas do setor, como Amazon Web Services, Apple, Microsoft e Google, além de fabricantes de chips como Nvidia e Broadcom.
Também integra o projeto a CrowdStrike, empresa de segurança digital que ganhou notoriedade após uma falha global registrada em 2024.
Segundo a Anthropic, mais de 40 organizações que operam softwares considerados críticos já tiveram acesso ao modelo. O objetivo oficial é fortalecer a segurança desses sistemas, inclusive contra ameaças que poderiam ser potencializadas pelo próprio Mythos.
Preocupação cresce entre autoridades globais
A principal preocupação está na capacidade do sistema de localizar falhas graves com rapidez e pouca supervisão. Em comunicado, a Anthropic afirmou que o modelo já identificou milhares de vulnerabilidades de alta severidade, incluindo brechas em sistemas operacionais e navegadores amplamente utilizados.
O tema passou a mobilizar autoridades financeiras internacionais. A tecnologia foi discutida recentemente em reuniões do Fundo Monetário Internacional, reunindo ministros e reguladores de diversos países.
O ministro das Finanças do Canadá, François-Philippe Champagne, classificou o cenário como uma “incógnita desconhecida”. Já o governador do Banco da Inglaterra, Andrew Bailey, destacou a necessidade de avaliar com cautela o possível aumento da criminalidade cibernética.
A União Europeia também confirmou que mantém diálogo com a empresa para compreender melhor os impactos da ferramenta.
Especialistas divergem sobre o real impacto
Entre profissionais de cibersegurança, as reações variam entre preocupação e ceticismo. Ciaran Martin, ex-diretor do Centro Nacional de Cibersegurança do Reino Unido, afirmou que as alegações sobre a capacidade do modelo de encontrar falhas críticas “chocaram muita gente”.
Ainda assim, ele ressalta que muitos ataques bem-sucedidos atualmente não dependem de tecnologia sofisticada, mas sim de sistemas desatualizados ou mal protegidos.
O Instituto de Segurança de IA do Reino Unido também analisou o modelo e concluiu que, embora seja altamente potente, seu impacto tende a ser mais significativo em ambientes vulneráveis. Em sistemas bem protegidos, os riscos seriam mais limitados.
Entre ameaça e oportunidade
Como ocorre com outras inovações tecnológicas, o Claude Mythos surge cercado de expectativas e incertezas. Parte dos especialistas aponta que empresas de inteligência artificial também se beneficiam ao destacar o poder de suas ferramentas, o que pode inflar percepções sobre seus riscos.
Por outro lado, o potencial positivo é evidente. Ferramentas desse tipo podem ajudar a identificar e corrigir falhas antes que sejam exploradas por criminosos, contribuindo para um ambiente digital mais seguro.
Apesar das divergências, há um ponto de consenso: mais importante do que o temor diante de novas tecnologias é o investimento contínuo em boas práticas de cibersegurança. Afinal, mesmo sem o uso de IA avançada, muitas invasões ainda ocorrem por falhas básicas.
(Com informações de Gizmodo)
(Foto: Reprodução/Freepik/DC Studio)