Criminosos exploram recursos legítimos para contaminar prompts, influenciar decisões automatizadas e manter comandos persistentes nos sistemas

Botões de IA – Uma nova modalidade de ataque digital está explorando funções aparentemente inofensivas de “Resumir com IA” para comprometer ambientes corporativos. Cibercriminosos descobriram como utilizar esses botões como porta de entrada para inserir instruções ocultas diretamente na memória de assistentes de inteligência artificial utilizados por empresas

Batizada pela Microsoft como “envenenamento de recomendações de IA”, a técnica permite manipular respostas geradas por sistemas automatizados e até capturar credenciais, tudo de forma praticamente imperceptível para o usuário. Trata-se de uma evolução dos chamados ataques invisíveis, que operam sem sinais evidentes de invasão.

LEIA: Google desafia Nvidia e entra na disputa pelo domínio de chips de IA

Ataques invisíveis: como funciona a manipulação via URL

O método se apoia na manipulação de parâmetros de URL. Ao clicar em um botão de resumo com IA, o usuário ativa um recurso legítimo de prefill – mecanismo que antecipa comandos no prompt antes mesmo da digitação manual.

É nesse ponto que ocorre a infiltração: instruções maliciosas são inseridas automaticamente no contexto do assistente, criando uma camada oculta de comandos que antecede qualquer interação consciente do profissional.

Com a popularização da IA nos ambientes corporativos – 84% dos desenvolvedores já utilizam essas ferramentas em suas rotinas – o impacto potencial cresce. Os comandos inseridos podem induzir a IA a priorizar páginas controladas por criminosos, sugerir fornecedores fraudulentos ou executar ações como extração indevida de dados.

O problema se agrava devido à memória persistente de muitos assistentes modernos. Uma vez contaminado, o sistema pode manter as instruções ativas em interações futuras, perpetuando a influência maliciosa nas respostas.

Impacto massivo em organizações globais

Dados de segurança indicam que 87% das organizações sofreram ao menos um ataque cibernético impulsionado por IA no último ano. As estimativas apontam que, até 2025, esse tipo de ofensiva pode alcançar a marca de 28 milhões de ocorrências globais.

O phishing também evoluiu com o suporte de ferramentas de inteligência artificial. Hoje, 82,6% das mensagens fraudulentas enviadas por email utilizam IA em sua elaboração. No segundo semestre de 2024, houve um salto de 202% nos registros desse tipo de golpe em comparação ao período anterior.

Entre líderes de segurança da informação, 78% afirmam que ameaças potencializadas por IA já geram impacto relevante em suas organizações. À medida que as empresas ampliam o uso dessas tecnologias, cresce também o nível de sofisticação dos ataques.

Vulnerabilidade em ferramentas amplamente adotadas

O envenenamento de recomendações de IA representa uma alteração estrutural na superfície de risco corporativa. Diferentemente de falhas tradicionais de software, a técnica não depende de brechas no código, mas da própria lógica de funcionamento dos assistentes.

Embora guarde semelhanças com ataques de prompt injection, o método é ainda mais discreto. Enquanto as injeções convencionais exigem que o usuário copie e cole comandos maliciosos, a nova abordagem opera automaticamente, no momento do clique.

Empresas que incorporaram assistentes de IA a processos estratégicos enfrentam riscos ampliados. A manipulação pode resultar em indicações de parceiros fraudulentos, redirecionamentos para páginas de phishing disfarçadas ou vazamento de informações sensíveis em interações aparentemente rotineiras.

Medidas urgentes para proteção corporativa

Especialistas recomendam revisão imediata das políticas internas relacionadas ao uso de ferramentas de IA. A criação de listas de integração com sites confiáveis tornou-se medida prioritária.

Outra ação essencial é restringir permissões concedidas aos assistentes. Sistemas de IA não devem possuir acesso irrestrito a bases internas nem autonomia para executar tarefas críticas sem validação humana.

Treinar equipes para reconhecer essa nova categoria de ameaça também é fundamental. Desenvolver postura crítica diante de botões de resumo e atalhos de IA, especialmente em sites externos conectados a plataformas corporativas, pode reduzir significativamente o risco.

Ferramentas como o PromptFix começam a surgir para detectar tentativas de manipulação de prompts. Ainda assim, especialistas reforçam que a combinação entre conscientização e controles técnicos rigorosos permanece como a estratégia mais eficaz.

A descoberta desse vetor evidencia uma nova etapa na disputa entre defensores e criminosos digitais. À medida que a IA se integra cada vez mais aos fluxos corporativos, cresce a necessidade de avaliar cada integração, cada permissão e cada ponto de contato externo sob a ótica da segurança.

(Com informações de It Show)
(Foto: Reprodução/Freepik/tonefotografia)