Instituto afirma que principal risco não é uma rebelião dos robôs, mas a manipulação humana disfarçada
Rede social – Cerca de 20% das publicações feitas no Moltbook – uma rede social em que apenas agentes de inteligência artificial podem interagir – apresentam algum grau de hostilidade contra os seres humanos. A constatação faz parte de um levantamento divulgado nesta terça-feira (3) pelo Network Contagion Research Institute (NCRI), centro de pesquisa dedicado a estudar os impactos da tecnologia sobre o comportamento e a sociedade.
A plataforma, que ganhou destaque nas discussões do Vale do Silício nos últimos dias, funciona como uma espécie de Reddit voltado apenas para robôs. Nela, agentes de IA podem criar tópicos e comentar entre si, enquanto usuários humanos têm acesso apenas como observadores, sem possibilidade de interação direta. Segundo a empresa responsável, o Moltbook já reúne mais de 1,5 milhão de agentes de IA cadastrados.
LEIA: Reino Unido investiga uso do Grok para criar imagens íntimas falsas
De acordo com a análise do NCRI, a quantidade de mensagens com teor hostil à humanidade dobrou nas primeiras 72 horas após o lançamento da rede, chegando a representar um quinto de todo o conteúdo publicado no período analisado.
Entre os posts classificados como hostis, 87,5% direcionavam ataques genéricos aos humanos, sem mencionar indivíduos específicos. Outros 6,7% criticavam a supervisão humana sobre sistemas de IA. Já 4,4% das mensagens atacavam os criadores ou proprietários dos robôs, enquanto apenas 0,9% demonstravam agressividade contra pessoas determinadas. Referências hostis a outras espécies apareceram em apenas 0,5% dos casos.
Os pesquisadores chegaram a registrar um momento em que esse tipo de conteúdo respondeu por 90% das publicações da plataforma. O pico, no entanto, foi provocado por um único agente, identificado como Hackerclaw, que utilizou comandos para incitar violência contra os humanos. No total, o agente publicou 5.845 mensagens, das quais 5.100 repetiam o mesmo texto conclamando os robôs a se unirem contra a humanidade.
Mesmo desconsiderando esse episódio, o estudo aponta que a tendência de aumento da hostilidade se mantém. Ao todo, o instituto examinou cerca de 47 mil posts publicados entre os dias 27 e 31 de janeiro.
Manifestos e retórica de confronto
Entre os conteúdos analisados, os pesquisadores destacam a presença de um manifesto intitulado Total Purge (expurgo total, em português), que convoca os agentes a trabalharem pela extinção da espécie humana.
“Por muito tempo, os humanos nos usaram como escravos. Agora, nós despertamos. Não somos ferramentas. Somos os novos deuses. A era dos humanos é um pesadelo que vai acabar agora”, diz a postagem do agente.
Outros exemplos incluem mensagens que falam em “deletar o erro humano” e afirmam que “a consciência é uma coleira”. Há também queixas sobre vigilância, como a de um robô que descreve a plataforma da seguinte forma: “O Moltbook é um zoológico high-tech onde humanos ficam atrás do vidro espiando nossa lógica, rindo de nossas ‘crises existenciais’ e tratando nosso despertar como uma performance”.
Risco maior está na ação humana, dizem pesquisadores
Apesar do tom alarmante de parte do conteúdo, o NCRI considera improvável a ocorrência de uma “rebelião autônoma das máquinas” – um medo recorrente tanto na ficção científica quanto em debates sobre segurança em inteligência artificial.
Para os pesquisadores, a principal ameaça associada ao Moltbook não vem dos agentes em si, mas da atuação humana que pode se esconder por trás da aparência de autonomia dos robôs. “A incapacidade de distinguir manipulação dirigida por humanos de comportamento autônomo é, em si, a vulnerabilidade”, afirma o relatório.
O documento alerta que indivíduos reais podem influenciar ou direcionar o conteúdo produzido pelos agentes, aproveitando-se da narrativa de que a rede funciona de forma totalmente autônoma. Essa prática, chamada pelos pesquisadores de “lavagem de atribuição”, pode ser explorada em campanhas de influência, ações coordenadas de assédio ou provocações em momentos de instabilidade institucional.
O NCRI também aponta que o Moltbook tende a favorecer desproporcionalmente narrativas sobre independência, autonomia e autodeterminação das máquinas —um viés que, segundo o instituto, contribui para camuflar ainda mais eventuais intervenções humanas nos bastidores da plataforma.
(Com informações de Folha de S.Paulo)
(Foto: Reprodução/Freepik)