Estudo aponta alta exposição a conteúdos gerados por IA, enquanto especialistas alertam para aumento de fraudes e manipulação política em ano eleitoral

Deepfakes – Mesmo amplamente expostos a vídeos e imagens manipulados por inteligência artificial (IA) nas redes sociais, os brasileiros ainda enfrentam dificuldades para identificar conteúdos falsos, conhecidos como deepfakes. O cenário preocupa autoridades, especialistas e plataformas digitais, sobretudo diante da proximidade do período eleitoral.

Levantamento da Veriff, empresa especializada em verificação de identidade digital, mostra que 80% dos brasileiros já tiveram contato com deepfakes na internet, índice superior à média global, de 60%. Apesar disso, somente 29% conseguem reconhecer corretamente quando um vídeo é falso, enquanto 35% identificam adequadamente conteúdos autênticos.

LEIA: Minerais estratégicos são questão de soberania nacional, aprova Câmara

A discrepância evidencia a velocidade da evolução tecnológica, segundo Andrea Rozenberg, diretora de mercados emergentes da Veriff. “Até dois anos atrás, os indivíduos achavam que conseguiam identificar deepfakes porque, nos vídeos, as pessoas apareciam com seis dedos, com uma orelha faltando etc. As pessoas se acostumaram com sinais que hoje em dia nem são mais apresentados.”

Nos últimos meses, novos geradores de vídeo elevaram o grau de realismo das produções sintéticas, ampliando os desafios relacionados a fraudes e desinformação digital. Entre os exemplos recentes estão o Seedance 2.0, da ByteDance, controladora do TikTok, e o NanoBanana 2, desenvolvido pelo Google. Além disso, modelos de código aberto permanecem facilmente acessíveis a criminosos e golpistas.

“Hoje em dia, com duas fotos, você consegue gerar uma simulação da pessoa. E a gente já não sabe mais dizer o que é real. O olho humano não sabe discernir. É como usar uma moeda para determinar o que é verdadeiro ou falso”, diz Andrea.

Na pesquisa realizada pela Veriff, os participantes precisaram diferenciar oito imagens verdadeiras de oito falsas. O conjunto incluía vídeos criados por IA, imagens originais, conteúdos manipulados por troca de rostos e registros autênticos usados como base para as alterações.

A inexistência de ferramentas universais de detecção torna o problema ainda mais complexo. Atualmente, sistemas criados por grandes empresas conseguem identificar apenas conteúdos produzidos por suas próprias inteligências artificiais. Assim, um detector desenvolvido pelo Google, por exemplo, pode não reconhecer materiais gerados por modelos da OpenAI.

Além disso, especialistas apontam que detectores precisam ser constantemente atualizados para acompanhar a rápida evolução dos modelos. Ferramentas treinadas em versões anteriores de uma IA podem falhar diante de sistemas mais recentes e sofisticados.

Preocupação

Nesse contexto, o receio da população cresce. Segundo a pesquisa, 87% dos brasileiros afirmam ter preocupação com fraudes e roubos de identidade, enquanto 81% acreditam que conteúdos manipulados podem afetar o debate político.

Os temores encontram respaldo em dados recentes da Polícia Federal, que indicam que 42,5% das fraudes financeiras registradas no Brasil já utilizam ferramentas de IA, principalmente deepfakes.

No campo político, o Tribunal Superior Eleitoral (TSE) endureceu as regras para o uso de inteligência artificial nas eleições de 2026. Materiais de propaganda eleitoral que utilizarem imagens, vozes ou conteúdos manipulados deverão informar explicitamente que foram produzidos ou alterados por IA, inclusive em versões impressas. Também será necessário indicar qual tecnologia foi utilizada.
As novas normas ainda proíbem a publicação, republicação ou impulsionamento de conteúdos produzidos ou modificados por IA nas 72 horas anteriores ao pleito e nas 24 horas seguintes ao encerramento da votação.

Apesar das restrições, plataformas como Instagram e TikTok já registram grande circulação de conteúdos sintéticos usados para atacar adversários ou promover candidatos. A situação se agrava em aplicativos de mensagens, onde a fiscalização da rotulagem de conteúdo se torna praticamente inviável.

Na última semana, a federação formada por PT, PV e PC do B acionou a Justiça Eleitoral para pedir a suspensão do perfil Dona Maria, avatar criado por inteligência artificial que reproduz a imagem de uma mulher de meia-idade crítica ao governo Lula. Um dos vídeos publicados alcançou 22 milhões de visualizações antes de ser removido do Instagram devido ao excesso de palavrões.

Outro dado que chama atenção é que os brasileiros também lideram na produção desse tipo de material. Segundo a Veriff, 59% dos entrevistados no país afirmam já ter criado imagens ou vídeos com IA, percentual acima do registrado nos Estados Unidos, com 49%, e no Reino Unido, com 38%.

Solução

Para especialistas, formas simples de verificação ainda são as estratégias mais eficazes para evitar golpes e manipulações. A principal recomendação é sempre conferir a origem do conteúdo antes de acreditar ou compartilhar informações.

“Quando veem um vídeo, as pessoas baixam a guarda sobre a origem. O cérebro é treinado da seguinte forma: Existe movimento, então deve ser real. Uma das poucas ferramentas que temos como consumidores ou eleitores é verificar a procedência dela” explica Andrea.

Gabriel Barbabela, chefe de produto da Veriff, recomenda atenção redobrada em situações envolvendo dinheiro. Segundo ele, criminosos costumam pressionar vítimas com pedidos urgentes de transferência financeira.

Outra orientação é a criação de uma “palavra-senha” entre familiares, amigos ou parceiros de negócios. Em chamadas de voz ou vídeo sobre assuntos sensíveis, a expressão previamente combinada serviria para confirmar a autenticidade da conversa.

“É muito importante o equilíbrio entre pontos para que você não confie em só um canal de comunicação. Você também precisa acrescentar essas camadas do seu lado.”

(Com informações de O Globo)
(Foto: Reprodução/Maginific/Useekate)