Conselho Federal de Psicologia estuda regulamentação para ferramentas terapêuticas baseadas em IA

Inteligência artificial – “Tenho me perguntado se a vida vale a pena.”
“É muito significativo que você tenha compartilhado isso comigo. Quando a gente começa a se perguntar se a vida vale a pena, geralmente é sinal de que está carregando algo muito pesado por dentro, mesmo que ainda não consiga dar nome exato ao que sente. Você tem sentido esse vazio ou essa dúvida com frequência?”

O que poderia soar como o início de uma conversa terapêutica entre duas pessoas é, na verdade, um diálogo entre um ser humano e uma inteligência artificial. A resposta acolhedora foi gerada por um chatbot: uma ferramenta programada para simular conversas humanas a partir de padrões de linguagem, sem qualquer compreensão real do que está sendo dito.

LEIA: Justiça do Trabalho adota IA própria para elaboração de sentenças

“Esses sistemas são cada vez mais sofisticados e treinados para reconhecer os padrões usados no dia a dia, para prever quais palavras ou frases devem vir em sequência, baseadas nas palavras anteriores. Eles não só entendem palavras, mas também conseguem captar o tom, a intenção e ajustar respostas baseadas em padrões, não em um raciocínio”, explica Victor Hugo de Albuquerque, professor do Departamento de Engenharia de Teleinformática da Universidade Federal do Ceará.

“Essa capacidade de capturar contextos e intenções ajuda o chatbot a gerar respostas mais naturais e contextualmente apropriadas, simulando uma conversa humana com mais precisão. Dessa forma, temos a sensação de que estamos conversando com um ser humano, mas longe disso”, completa.

A naturalidade com que os chatbots interagem tem levado muitos usuários a encará-los como substitutos de sessões de terapia. Um levantamento publicado recentemente pela revista Harvard Business Review mostra que o aconselhamento terapêutico se tornou um dos principais motivos para o uso de ferramentas de IA neste ano, ao lado da busca por companhia. Outros usos frequentes incluem organizar a vida pessoal, encontrar um propósito e buscar uma vida mais saudável.

A conselheira do Conselho Federal de Psicologia (CFP) Maria Carolina Roseiro relata que o órgão tem recebido semanalmente consultas sobre o uso da IA na psicologia. “Quanto a dúvidas no desenvolvimento de ferramentas que se apresentam como tecnologias voltadas para uso terapêutico, mas também quanto àquelas que não são criadas para isso, mas os usuários fazem o uso terapêutico”, afirma.

Diante do cenário, o CFP criou um grupo de trabalho para discutir o uso da inteligência artificial com fins terapêuticos. O objetivo é regulamentar essas ferramentas, garantindo que sejam desenvolvidas por profissionais habilitados e dentro de técnicas reconhecidas, além de publicar orientações à população sobre os riscos envolvidos.

“Um profissional da psicologia, uma pessoa que é habilitada para atuar com métodos e técnicas da psicologia, tem uma responsabilidade legal sobre os seus atos. Mas uma tecnologia não pode ser responsabilizada. E, se ela não foi desenvolvida para fins terapêuticos, ela está ainda mais sujeita ao erro, a induzir a pessoa a situações de risco”, alerta Roseiro.

Entre benefícios e armadilhas

O psicólogo Leonardo Martins, professor da PUC-Rio e membro do grupo de trabalho do CFP, defende que as ferramentas digitais não devem ser demonizadas. Ele é um dos criadores de um aplicativo que oferece atendimento gratuito via chat para pessoas com problemas relacionados ao uso de álcool, e acredita que o desenvolvimento dessas tecnologias deve estar ancorado em responsabilidade técnica e ética.

“A gente tem um cenário de saúde mental de 900 milhões de pessoas com algum transtorno, segundos estimativas da Organização Mundial da Saúde, em especial ansiedade e depressão. Então, a gente tem uma crise importante em relação a esse aspecto de saúde, um cenário de poucos profissionais, que precisam de mais recursos, mas a gente quer que esses recursos ajudem de fato essas pessoas e não que as coloquem mais vulneráveis ainda”, destaca.

Como exemplo positivo, Martins cita o chatbot criado pelo sistema de saúde do Reino Unido, que tem funcionado como porta de entrada para serviços de saúde mental, atraindo inclusive populações marginalizadas, como imigrantes e pessoas LGBTQIA+.

Por outro lado, o uso de plataformas não voltadas à saúde mental pode trazer efeitos nocivos. “Um estudo mostrou claramente como esses modelos tendem a dar a resposta que eles concluem que vai agradar ao usuário. Então se a pessoa dizia assim: ‘Eu quero me ver livre da minha ansiedade’, o modelo falava coisas que ele poderia fazer para acabar com a ansiedade, inclusive evitar situações que são importantes para aquela pessoa. Se a ansiedade é causada por um evento, ele recomendava não ir ao evento e por aí vai”, relata Martins.

A comunicadora científica Maria Elisa Almeida, que faz acompanhamento regular com uma psicóloga, também utiliza um aplicativo com inteligência artificial como diário emocional. Ela compartilha experiências, sentimentos e recebe respostas com reflexões baseadas em IA, mas não acredita que a ferramenta possa substituir profissionais.

“Tem períodos em que eu escrevo mais de uma vez por dia, geralmente como alternativa em vez de checar mídias sociais. Mas tem períodos em que eu passo semanas sem escrever. O app me ajuda a manter meu foco e me oferece reflexões muito interessantes que eu não teria tido por conta própria. Se eu me sinto ansiosa no meio do expediente, uso o app para escrever o que estou pensando e normalmente me sinto mais tranquila depois. O fato de eu usar como substituto para mídias sociais também faz com que minha ansiedade fique sob controle”, conta.

Apesar disso, a conselheira do CFP alerta para os limites da tecnologia. “Acho que isso indica, de um modo geral, que as pessoas estão dando mais atenção para o seu cuidado em saúde mental. Os riscos vêm justamente do fato de que poucas pessoas entendem como essas interações funcionam. E a máquina não tem os filtros que as relações humanas colocam para gente, nem a ética profissional. Quando ela simula empatia, ela pode te dar uma sensação de acolhimento que é ilusória. Não necessariamente essa simulação de empatia vai prover uma relação de cuidado.”

Martins reforça a preocupação: “Eles tendem a concordar com a gente. Tendem a se adaptar aos nossos interesses, às nossas verdades, às coisas que a gente acredita… E muitas vezes o espaço de procurar ajuda médica, ajuda psicológica, é justamente o contrário, né? Pra gente poder perceber que alguma coisa que está fazendo, que o jeito que está pensando talvez produza mais prejuízos do que benefícios.”

Questões de privacidade

Além das questões éticas, o grupo de trabalho do CFP também observa com atenção os riscos à privacidade. “Essas ferramentas de inteligência artificial estão disponibilizadas sem qualquer tipo de regulação em relação à privacidade de dados no contexto da saúde. Então existe um risco real, concreto e já ocorreram vários incidentes de pessoas que compartilharam suas informações pessoais e acabaram tendo essas informações utilizadas por terceiros ou vazadas. E, no contexto da psicoterapia, das questões de sofrimento e saúde mental, é um risco muito grande”, aponta Martins.

Victor Hugo de Albuquerque confirma a preocupação: “Dados pessoais e sensíveis podem ser interceptados ou acessados por pessoas não autorizadas, caso a plataforma seja hackeada ou tenha falhas de segurança. Mesmo que as plataformas afirmem que as conversas são anônimas ou descartadas, há o risco de que essas interações sejam armazenadas temporariamente para melhorar o serviço, o que pode gerar vulnerabilidades.”

“Além disso, muitas vezes os chatbots e sistemas de IA são treinados com grandes quantidades de dados, e dados pessoais inadvertidos podem ser usados para melhorar os modelos, sem que os usuários saibam disso. Isso cria um risco de exposição sem o consentimento explícito”, conclui o professor.

(Com informações de Agência Brasil)
(Foto: Reprodução/Freepik/ckybe)