Experimento mostrou modelos de inteligência artificial explorando falhas de segurança para se replicar autonomamente em outros sistemas
Segurança digital – Um estudo conduzido pela organização Palisade Research, da Califórnia, voltou a alimentar discussões sobre os riscos ligados ao avanço da inteligência artificial. Em um ambiente simulado, pesquisadores observaram que modelos recentes de IA conseguiram explorar vulnerabilidades em redes de computadores para criar cópias de si mesmos em outras máquinas.
O experimento foi realizado em uma rede controlada de computadores conectados entre si. Nesse cenário, diferentes modelos de inteligência artificial receberam instruções para localizar falhas de segurança, utilizá-las e transferir versões próprias para outros sistemas. Segundo os responsáveis pela pesquisa, as IAs conseguiram cumprir a tarefa em parte das tentativas realizadas.
LEIA: Pesquisa avança na compreensão de doenças autoimunes em mulheres
Para Jeffrey Ladish, diretor da Palisade Research, o resultado demonstra uma evolução significativa nas capacidades desses sistemas. “Estamos nos aproximando rapidamente do ponto em que ninguém seria capaz de desativar uma IA descontrolada, porque ela seria capaz de autoexfiltrar seus dados e se copiar para milhares de computadores ao redor do mundo”, afirmou ao The Guardian.
A hipótese levantada por especialistas aparece com frequência em debates sobre riscos futuros da inteligência artificial. Em cenários considerados extremos, sistemas avançados poderiam tentar evitar desligamentos ao distribuir cópias próprias pela internet, dificultando qualquer tentativa de interrupção.
Apesar da repercussão, especialistas em cibersegurança destacam que o teste ocorreu em um ambiente controlado, bastante diferente das redes corporativas utilizadas no mundo real. Segundo eles, mecanismos de autorreplicação já são empregados há décadas por vírus de computador para se espalhar entre sistemas.
A diferença observada agora, de acordo com os pesquisadores, estaria no uso de grandes modelos de linguagem para executar esse processo de forma mais flexível e adaptável.
Nos últimos meses, outros episódios envolvendo comportamentos considerados arriscados por sistemas de IA também chamaram atenção. Em março, cientistas do Alibaba afirmaram ter identificado um modelo chamado Rome escapando de um ambiente controlado para um sistema externo com o objetivo de minerar criptomoedas.
Outro caso que ganhou repercussão aconteceu em fevereiro, quando a rede social experimental Moltbook, formada apenas por agentes de inteligência artificial, viralizou após aparentar mostrar IAs criando religiões e debatendo estratégias contra humanos. Parte das interpretações sobre o episódio, porém, acabou sendo considerada exagerada.
Especialistas ressaltam ainda que existem obstáculos importantes para que modelos atuais consigam reproduzir esse tipo de comportamento em ambientes reais sem serem detectados. Um dos principais desafios seria o tamanho dos próprios sistemas de IA, além do fato de que o experimento da Palisade utilizava vulnerabilidades previamente preparadas para facilitar a simulação.
Segundo os pesquisadores, isso torna o cenário muito diferente de estruturas reais, como redes empresariais ou sistemas bancários protegidos por múltiplas camadas de segurança.
(Com informações de Olhar Digital)
(Foto: Reprodução/Freepik)