CEO da empresa admitiu que tornou ChatGPT “menos agradável” por segurança, mas prepara maneira de atender a usuários adultos
ChatGPT – O CEO da OpenAI, Sam Altman, anunciou na terça-feira (14) que o ChatGPT passará a permitir a geração de conteúdo erótico voltado a usuários adultos verificados. A mudança vem acompanhada da flexibilização de outras barreiras de segurança, como aquelas ligadas à saúde mental. No mesmo dia, a Agência Nacional de Proteção de Dados (ANPD) divulgou o Radar Tecnológico nº 5, documento que descreve métodos de verificação etária e diretrizes sobre o tema.
A possibilidade de uma versão “18+” provocou discussão sobre privacidade, aferição de idade e tratamento de dados sensíveis. Em publicação no X (antigo Twitter), Altman admitiu que a OpenAI “tornou o ChatGPT menos útil/agradável” e afirmou que, superadas as dificuldades, “as restrições poderão ser relaxadas com segurança na maioria dos casos”.
LEIA: Criminosos usam falsa vaga no Google para invadir sistemas corporativos
O executivo acrescentou que, nas próximas semanas, uma nova atualização da IA deve apresentar uma personalidade mais “humana”. Ele também confirmou que o recurso para conteúdo adulto deve chegar em dezembro, com a proposta de “tratar usuários adultos como adultos”.
Privacidade e riscos
Para Calza Neto, DPO do Corinthians, a iniciativa voltada a adultos “impõe novos riscos e desafios à privacidade e à proteção de dados, exigindo um olhar criterioso sob a ótica da LGPD e das diretrizes do Radar Tecnológico nº 5 da ANPD sobre aferição de idade”.
Segundo ele, as bases devem ser os princípios de minimização, finalidade e segurança: coletar apenas o essencial para confirmar a idade, adotar base legal adequada – preferencialmente o cumprimento de obrigação legal e a proteção do titular – e empregar medidas técnicas robustas, como criptografia, controle de acesso e segregação de dados.
Neto também defende que o Relatório de Impacto à Proteção de Dados (RIPD) anteceda qualquer operação desse tipo. “É imprescindível para transparência e responsabilidade, mapeando riscos e definindo contramedidas”.
Entre os riscos apontados está o de conteúdos íntimos reaparecerem em conversas futuras. O especialista sugere boas práticas, como isolamento de sessões, opção de opt-out para impedir que diálogos sejam usados em treinamento, retenção mínima com exclusão automática, anonimização de registros e testes recorrentes de segurança.
Essa abordagem, explica ele, segue padrões de governança de dados já aplicados em sistemas de IA generativa, que separam telemetria operacional (anônima e minimizada) de dados sensíveis.
No contexto brasileiro, a responsabilização depende da presença da empresa no país. “Se a OpenAI tiver representação no Brasil, essa entidade é controladora local perante a ANPD e titulares, com a sede global atuando como controladora conjunta. Sem representação, aplica-se a extraterritorialidade: a OpenAI nos EUA responde integralmente pelo tratamento de dados de brasileiros”, esclarece Neto.
Aferição de idade
Questionado sobre o controle de acesso por menores, o DPO é categórico: autodeclaração isolada não basta. O ideal, explica ele, é adotar métodos híbridos e verificáveis, combinando autodeclaração com checagem documental automatizada, biometria facial estimativa e prova de vida, com eliminação imediata dos dados após a confirmação.
“O sistema deve ser auditável e rastreável, documentar tentativas de fraude e reentradas bloqueadas, e demonstrar privacy by design”, afirma.
O Radar 5 também cita métodos complementares, como análise de comportamento linguístico, padrões de digitação e metadados – sempre respeitando os princípios de proporcionalidade e minimização. Para Neto, a ‘accountability’ deve incluir trilhas de auditoria, testes e revisões periódicas.
Ele ressalta ainda que plataformas com conteúdo adulto precisam de monitoramento automatizado de interações suspeitas, bloqueio de abusos e limitações técnicas que impeçam o armazenamento indevido de dados pessoais. “Moderação ativa, canais de denúncia e planos de resposta a incidentes garantem rastreabilidade e conformidade com a LGPD”, diz.
Repercussão
Na tarde de quarta-feira (15), Sam Altman voltou a se pronunciar, afirmando que a OpenAI “não está flexibilizando nenhuma política relacionada à saúde mental” e que “acreditam que menores necessitam de proteção significativa”.
Segundo o executivo, o ChatGPT continuará sem permitir respostas que possam causar danos a terceiros e “tratará usuários que estão passando por crises de forma diferente dos que não estão”. “Mas não somos a polícia moral eleita do mundo”, concluiu.
(Com informações de Ti Inside)
(Foto: Reprodução/Freepik/night_lynx)