Um novo estudo da Universidade Brown conclui que chatbots de inteligência artificial, como o ChatGPT, apresentam falhas éticas significativas quando utilizados para aconselhamento em saúde mental.
A investigação, divulgada a 2 de março e apresentada na Conferência AAAI/ACM sobre Inteligência Artificial, Ética e Sociedade, identificou 15 riscos éticos distintos, mesmo quando os sistemas são instruídos a actuar segundo abordagens psicoterapêuticas reconhecidas.
De acordo com os investigadores, os modelos de linguagem analisados — incluindo GPT, Claude e Llama — demonstraram problemas recorrentes, como má gestão de situações de crise, reforço involuntário de crenças prejudiciais e respostas enviesadas. Um dos riscos apontados é a chamada “empatia enganosa”: o uso de expressões que simulam compreensão emocional sem que exista uma verdadeira capacidade de entendimento clínico.
O estudo conclui ainda que os sistemas falham frequentemente na adaptação ao contexto individual de cada utilizador e podem apresentar discriminação injusta relacionada com género, cultura ou religião.
A investigação foi conduzida com o apoio de psicólogos clínicos licenciados, que avaliaram transcrições de sessões simuladas entre conselheiros treinados e modelos de IA programados para agir como terapeutas cognitivo-comportamentais.
Segundo a autora principal, Zainab Iftikhar, a principal diferença entre terapeutas humanos e sistemas de IA reside na responsabilização: enquanto profissionais estão sujeitos a ordens reguladoras e mecanismos disciplinares, não existem ainda estruturas legais e éticas consolidadas para responsabilizar sistemas baseados em IA.
Apesar das conclusões, os investigadores sublinham que a inteligência artificial pode ter um papel complementar no alargamento do acesso à saúde mental, sobretudo em contextos de escassez de profissionais. No entanto, defendem a criação urgente de padrões éticos, educacionais e legais robustos antes de confiar estes sistemas a situações de elevado risco, alertando para a necessidade de avaliação rigorosa e supervisão humana contínua.