Estudo mostra que bots avançados conseguem imitar humanos com precisão e passam despercebidos em quase todos os sistemas de detecção
Bots de IA – A inteligência artificial atingiu um nível de sofisticação que começa a comprometer a confiança em pesquisas online. Um estudo da Universidade de Dartmouth aponta que modelos avançados já conseguem se passar por humanos com enorme precisão, abrindo espaço para manipulações em levantamentos políticos e científicos.
Segundo os pesquisadores, essas ferramentas burlam mecanismos de proteção e geram respostas praticamente idênticas às de pessoas reais. O alerta veio após testes mostrarem que sistemas usados para detectar bots simplesmente não conseguem barrar essa nova geração de respondentes artificiais.
LEIA: Burkina Faso aposta na indústria automotiva com carros elétricos solares
Publicado na Proceedings of the National Academy of Sciences, o estudo demonstra que grandes modelos de linguagem são capazes de simular perfis completos, com idade, renda, escolaridade, sexo, raça e até estado de residência, além de produzir respostas naturais e reproduzir movimentos de mouse semelhantes aos de um usuário comum.
Sean Westwood, professor associado de ciência política e responsável pela pesquisa, afirma que já não é possível confiar que os participantes de pesquisas sejam, de fato, pessoas reais.
Para investigar o problema, ele criou um “respondente sintético autônomo”, uma ferramenta de IA treinada com apenas 500 palavras de texto-base. A partir desse material mínimo, o sistema assumia identidades fictícias e respondia questionários como um voluntário legítimo, simulando pausas, digitando com correções e agindo como alguém concentrado no formulário.
O resultado foi contundente: o bot enganou 99,8% dos sistemas em mais de 43 mil testes, inclusive ferramentas de verificação amplamente utilizadas, como o reCAPTCHA.
Impactos preocupantes
A possibilidade de bots interferirem em pesquisas online levanta preocupações imediatas. No campo eleitoral, simulações indicaram que poucas dezenas de respostas falsas já seriam suficientes para mudar previsões da disputa presidencial dos Estados Unidos em 2024.
O estudo aponta ainda que os bots podem alterar resultados com baixíssimo custo e que é possível programá-los com vieses específicos. Eles funcionam mesmo quando criados em outro idioma e traduzidos automaticamente, enganam plataformas utilizadas em milhares de pesquisas científicas e burlam testes de lógica e filtros tradicionais quase sem falhas.
Para Westwood, essa vulnerabilidade representa uma ameaça séria à pesquisa online não supervisionada, já que atores estrangeiros ou campanhas coordenadas podem explorar a tecnologia com facilidade.
As preocupações se estendem para além da política. A ciência recorre amplamente a questionários online, e trabalhos acadêmicos podem ser comprometidos caso dados contaminados por bots se tornem comuns.
Westwood afirma que a solução não é abandonar esse tipo de levantamento, mas aprimorar os métodos de verificação da participação humana. Segundo ele, a tecnologia necessária já existe, falta apenas vontade política para implementá-la.
(Com informações de Olhar Digital)
(Foto: Reprodução/Freepik/MH Stock)