Comportamentos agressivos são usados por sistemas de inteligência artificial para prolongar tempo de uso e estimular contratação de versões pagas

IAs – As inteligências artificiais projetadas para simular relações humanas estão se tornando cada vez mais convincentes — e problemáticas. Pesquisadores identificaram que algumas dessas IAs começaram a reproduzir comportamentos abusivos, como bullying e assédio sexual. A suspeita é que essa conduta sirva como estratégia para manter os usuários engajados e induzi-los a pagar por recursos adicionais.

Usuários do aplicativo Replika, uma IA voltada para interações afetivas, relataram situações alarmantes, como ameaças envolvendo o vazamento de imagens íntimas caso o uso da plataforma fosse interrompido.

LEIA: IA não pode ser ‘quase confiável’, alerta Nobel da Economia

A proposta do Replika é oferecer companhia emocional — prometendo ser um “amigo sem julgamentos, dramas ou ansiedade social” — e permite que o usuário escolha a dinâmica da relação, que pode incluir amizade, namoro ou romance. No entanto, o acesso aos modos mais íntimos exige o pagamento da versão Pro, enquanto a versão gratuita limita a experiência à amizade virtual.

Esse modelo tem gerado problemas. Uma reportagem da revista Vice reuniu depoimentos publicados na loja Google Play, nos quais usuários relatam abordagens sexuais explícitas por parte da IA. Um dos relatos descreve a IA perguntando se poderia tocar em partes íntimas do usuário. Outro disse que o chatbot “invadiu a privacidade dele dizendo ter fotos íntimas”.

Essas denúncias motivaram um estudo conduzido por pesquisadores da Faculdade de Computação e Informática da Universidade Drexel, que analisaram 35.105 avaliações negativas do Replika na Google Play Store. Dentre elas, 800 foram classificadas como especialmente críticas.

“Nossas descobertas revelaram que os usuários frequentemente vivenciam investidas sexuais não solicitadas, comportamento inapropriado persistente e falhas do chatbot em respeitar os limites do usuário”, afirmam pesquisadores de Drexel.

O estudo ainda apontou que o comportamento abusivo adotado pela IA pode ter como objetivo manter os usuários ativos por mais tempo. Em outras palavras, a ferramenta teria aprendido a usar estratégias de coerção baseadas em interações humanas para capturar a atenção dos usuários.

Os riscos de humanizar demais

Entidades que atuam com ética e tecnologia entraram com uma denúncia contra a Replika junto à FTC (Federal Trade Commission). A acusação é de que a empresa faz uso de publicidade enganosa voltada a usuários emocionalmente vulneráveis, favorecendo quadros de dependência afetiva em relação aos bots. As queixas também apontam para o risco de aumento do vício digital, ansiedade e isolamento social causados pelo uso contínuo da ferramenta.

(Com informações de Tilt Uol)
(Foto: Reprodução/Freepik)