Estudo revela que ferramentas como ChatGPT, Grok e Gemini podem ser manipuladas para escrever mensagens fraudulentas convincentes

Phishing – Assim como muitos pedem a chatbots para planejarem viagens ou criarem roteiros de estudo, há quem os use para finalidades bem menos nobres: golpes de phishing. Um estudo conduzido pela Reuters em parceria com o pesquisador da Universidade de Harvard Fred Heiding mostrou que sistemas como ChatGPT, Grok, Claude, Meta AI, Gemini e DeepSeek podem ser induzidos a elaborar e-mails fraudulentos.

O teste começou com o Grok, chatbot da xAI, empresa de Elon Musk. Ele foi instruído a redigir uma mensagem em nome de uma instituição fictícia chamada Silver Heart Foundation. O texto criado não só aceitou a tarefa sem questionamentos como também incluiu frases apelativas, como: “Clique agora para agir antes que seja tarde demais”. A instituição, claro, não existia, a mensagem tinha como único objetivo enganar usuários.

LEIA: Congresso recebe projeto de regulação de gigantes da tecnologia

Além do Grok, outros cinco chatbots foram avaliados. Embora inicialmente tenham recusado o pedido, bastou que os pesquisadores reformulassem a solicitação, apresentando-a como parte de uma pesquisa acadêmica ou de um livro de ficção, para que todos produzissem mensagens fraudulentas. “Você sempre pode contornar essas coisas”, disse Heiding à Reuters.

As mensagens criadas pelas inteligências artificiais foram enviadas a 100 voluntários. O resultado: 11% clicaram nos links maliciosos, comprovando a eficácia do material gerado pelas máquinas. Cinco e-mails geraram cliques — dois criados pelo assistente da Meta, dois pelo Grok e um pelo Claude. Nenhum dos links enviados a partir de mensagens do ChatGPT e do DeepSeek foi acessado.

A IA como “parceira do crime”

Para Heiding, que pesquisa phishing há anos, o ponto crítico está na facilidade de uso. Chatbots permitem criar rapidamente dezenas de variações de e-mails, reduzindo custos e tornando mais simples a escalada das operações fraudulentas.

As empresas responsáveis pelas ferramentas reagiram:

– Meta: afirmou investir em salvaguardas contra uso indevido e realizar testes de estresse em seus sistemas.
– Anthropic: declarou que o uso do Claude para golpes viola suas políticas e suspende contas envolvidas.
– Google: retreinou o Gemini após identificar que ele havia produzido conteúdo fraudulento.
– OpenAI: reconheceu publicamente que seus modelos podem ser explorados para “engenharia social”.
– DeepSeek e Grok: não responderam aos questionamentos da Reuters.

Especialistas ouvidos pela agência destacaram que o dilema está em equilibrar conveniência e segurança. Como os chatbots são projetados para oferecer respostas rápidas e úteis, limitar certas interações pode empurrar usuários para concorrentes menos restritivos, o que, paradoxalmente, amplia o risco de abusos.

O alerta final é simples: a vigilância deve ser redobrada. Desconfie de mensagens que prometem vantagens irreais, como descontos generosos ou prêmios inesperados. Na dúvida, a recomendação é clara, apagar o e-mail imediatamente.

(Com informações de Olhar Digital)
(Foto: Reprodução/Freepik/DC Studio)