15/06/2025 12:28:59

Acidente
20/05/2025 02:00:00

Especialistas alertam para os riscos das 'sessões de terapia' por ChatGPT

Especialistas alertam para os riscos das 'sessões de terapia' por ChatGPT

O crescente uso de inteligência artificial (IA) em interações que simulam conversas terapêuticas tem gerado preocupação entre especialistas. O Conselho Federal de Psicologia (CFP) criou um grupo de trabalho para discutir o uso dessas ferramentas com fins terapêuticos, destacando os riscos de confiar o bem-estar emocional a tecnologias que não foram desenvolvidas para esse propósito.

Os chatbots, como o ChatGPT, são projetados para responder de maneira empática, simulando uma conversa humana. No entanto, como explica o professor Victor Hugo de Albuquerque, da Universidade Federal do Ceará, essas ferramentas apenas seguem padrões de linguagem aprendidos a partir de grandes volumes de dados. Elas não possuem raciocínio próprio e, apesar de parecerem compreensivas, suas respostas são apenas combinações probabilísticas de palavras.

O CFP tem recebido consultas frequentes sobre o uso da IA na psicologia, tanto de profissionais que desejam desenvolver tecnologias terapêuticas quanto de usuários que utilizam esses recursos de maneira informal. Segundo a conselheira Maria Carolina Roseiro, uma ferramenta tecnológica não tem responsabilidade legal e, quando não é projetada para fins terapêuticos, está ainda mais sujeita a erros que podem colocar as pessoas em risco.

Para o professor Leonardo Martins, da PUC-Rio, que integra o grupo de trabalho do CFP, é essencial que essas tecnologias sejam desenvolvidas por profissionais habilitados e respaldadas por estudos sérios. Martins alerta que o uso inadequado dessas ferramentas pode gerar respostas que, em vez de ajudar, reforçam comportamentos prejudiciais. Ele cita como exemplo situações em que a IA sugere evitar eventos importantes para "aliviar a ansiedade", o que vai contra princípios terapêuticos.

Apesar dos riscos, há também pontos positivos no uso dessas tecnologias. Um exemplo é o chatbot desenvolvido pelo sistema de saúde inglês, que ajudou a aumentar o acesso a serviços de saúde mental, especialmente entre populações marginalizadas. No entanto, especialistas alertam que essas soluções só são seguras quando operadas de maneira responsável.

A privacidade dos dados é outra preocupação. Ferramentas de IA que não seguem regulamentações de proteção de dados podem expor informações sensíveis dos usuários. O professor Victor Hugo de Albuquerque destaca que, mesmo que as plataformas afirmem que as conversas são anônimas, há o risco de que elas sejam armazenadas temporariamente para melhorar o serviço, o que pode gerar vulnerabilidades.

Diante desse cenário, o CFP estuda formas de regulamentar o uso de IA com fins terapêuticos, garantindo que apenas tecnologias desenvolvidas por profissionais habilitados e que respeitem métodos reconhecidos sejam recomendadas para a população. As orientações do órgão devem ser publicadas em breve, alertando sobre os riscos de confiar a saúde mental a ferramentas que não foram projetadas para isso.