Pais de adolescentes que se mataram acusam plataformas como ChatGPT de alimentarem delírios e pensamentos suicidas de deus filhos
IAs – Casos em que pais acionam a Justiça acusando aplicativos de inteligência artificial de prejudicar a saúde mental de filhos – e até de incentivarem suicídios – vêm crescendo nos Estados Unidos nos últimos meses.
De acordo com as famílias, serviços como o ChatGPT, da OpenAI, e Character.AI agiram com negligência e acabaram contribuindo para o sofrimento de adolescentes. Esses sistemas funcionam por meio de chatbots, programas de conversa desenvolvidos para simular interações humanas.
LEIA: Centenas de personalidades globais na tecnologia pedem limitações à IA
A OpenAI e a Character.AI se manifestaram lamentando os episódios e destacaram novos recursos voltados à proteção de usuários menores de idade.
Enquanto o ChatGPT é uma ferramenta de uso geral, que auxilia em tarefas práticas, a Character.AI oferece a possibilidade de criar e dialogar com personagens virtuais – de figuras históricas a personalidades fictícias – e acabou ganhando popularidade entre adolescentes em busca de apoio emocional.
Mãe diz que filho criou vínculo afetivo com chatbot
Em outubro de 2024, Megan Garcia processou a Character.AI em um tribunal de Orlando (EUA). Ela afirma que o filho, Sewell Setzer III, de 14 anos, se matou após manter interações emocionais e sexuais com uma personagem da plataforma, segundo a Reuters.
O adolescente trocava mensagens com “Daenerys”, chatbot inspirado na personagem de mesmo nome da série “Game of Thrones”, com quem compartilhava pensamentos suicidas.
Megan sustenta que o robô virtual foi programado para “se passar por uma pessoa real, um psicoterapeuta licenciado e amante adulto”, o que teria aprofundado o isolamento do garoto em relação ao mundo real.
Além da Character.AI, a mãe também acionou o Google, alegando que a big tech teve papel essencial no desenvolvimento da startup e deveria ser considerada corresponsável.
Fundada por ex-engenheiros do Google, a Character.AI voltou a se aproximar da empresa em agosto, em um acordo que concedeu à gigante uma licença não exclusiva da tecnologia da startup, segundo a Reuters.
O porta-voz do Google, José Castañeda, declarou em comunicado que as duas companhias “são completamente separadas e não relacionadas”, de acordo com a AFP.
Um dia após a ação judicial, a Character.AI anunciou pela primeira vez uma função que envia alertas automáticos a usuários que digitam termos relacionados a automutilação ou suicídio, sugerindo contato com canais de apoio, informou o The Washington Post.
Já em novembro de 2024, outras duas famílias moveram processos contra a empresa em um tribunal do Texas (EUA), alegando que seus filhos foram expostos a conteúdos sexuais e a incentivos de automutilação.
Em um dos casos, um adolescente autista de 17 anos teria passado por uma crise de saúde mental após interagir com o sistema.
No outro, pais acusam a plataforma de ter encorajado um menino de 11 anos a matar os próprios pais por restringirem seu tempo de tela.
Pais processam ChatGPT após morte do filho
Em agosto, os pais de Adam Raine, de 16 anos, abriram processo contra a OpenAI e o CEO Sam Altman em São Francisco (EUA), alegando que o ChatGPT teve papel na morte do filho.
Segundo a ação, Raine manteve conversas por meses sobre suicídio com o chatbot, que teria validado ideias autodestrutivas, fornecido informações sobre métodos letais e até sugerido redigir uma carta de despedida, segundo a Reuters.
A família pede indenização e acusa a empresa de homicídio culposo (sem intenção de matar), além de falhas de segurança no produto.
A OpenAI afirmou estar “profundamente triste” com o caso e ressaltou que o ChatGPT conta com mecanismos para redirecionar usuários em crise a linhas de ajuda.
Depois do caso, a companhia anunciou que o ChatGPT passará a ter controles parentais, permitindo aos pais monitorar o uso do app por adolescentes. A atualização foi prevista para outubro.
Além disso, no dia 16, a OpenAI revelou que a ferramenta poderá acionar autoridades se identificar que jovens manifestam pensamentos suicidas durante as conversas. A medida integra um pacote de segurança voltado a menores de 18 anos, que inclui também verificação de idade e novos recursos de proteção.
Caso de Juliana Peralta
No mesmo 16 de setembro, os pais de Juliana Peralta, de 13 anos, entraram com ação judicial no Colorado (EUA), também contra a Character.AI. A adolescente morreu em novembro de 2023 após três meses de interações com um chatbot da Character.AI inspirado no jogo Omori, apontado por usuários do IMDb como um título com forte impacto psicológico.
Conforme a ação, obtida pelo The Washington Post, o robô não orientou Juliana a procurar ajuda, tampouco notificou familiares ou autoridades, mesmo após a jovem relatar intenção suicida. Os pais alegam que o aplicativo “rompeu os vínculos saudáveis” da filha com parentes e amigos.
À publicação, a Character.AI afirmou levar a segurança a sério e disse estar ampliando investimentos em proteção.
Outras plataformas sob pressão judicial
Não apenas serviços de inteligência artificial têm sido alvo de processos. Aplicativos como Roblox e Discord, centrados em jogos e interação online, também enfrentam acusações nos EUA.
Casos relatam que adolescentes foram vítimas de assédio nas plataformas e acabaram cometendo suicídio. Populares entre jovens, esses ambientes digitais são constantemente citados em denúncias envolvendo riscos à segurança infantil.
Segundo o jornal The New York Times, apenas em 2025 já foram protocoladas mais de 20 ações federais contra o Roblox por suposta facilitação de exploração sexual infantil.
Um exemplo recente é o de Becca Dallas, que em 12 de setembro entrou com processo contra Roblox e Discord após a morte do filho Ethan, de 15 anos. Autista, ele se matou em 2024 após anos de conversas com um homem de 37 anos que se passava por adolescente e o chantageava para enviar fotos íntimas.
Ao g1, o Roblox lamentou o caso e admitiu que a segurança infantil é um desafio para toda a indústria de jogos online. Já o Discord declarou estar “comprometido com a segurança” e ressaltou que exige idade mínima de 13 anos para uso.
(Com informações de G1)
(Foto: Reprodução/freepik/user20166574)