Estudo alerta para riscos éticos no uso do ChatGPT como “terapeuta”

Um novo estudo da Universidade Brown conclui que chatbots de inteligência artificial, como o ChatGPT, apresentam falhas éticas significativas quando utilizados para aconselhamento em saúde mental.

A investigação, divulgada a 2 de março e apresentada na Conferência AAAI/ACM sobre Inteligência Artificial, Ética e Sociedade, identificou 15 riscos éticos distintos, mesmo quando os sistemas são instruídos a actuar segundo abordagens psicoterapêuticas reconhecidas.

De acordo com os investigadores, os modelos de linguagem analisados — incluindo GPT, Claude e Llama — demonstraram problemas recorrentes, como má gestão de situações de crise, reforço involuntário de crenças prejudiciais e respostas enviesadas. Um dos riscos apontados é a chamada “empatia enganosa”: o uso de expressões que simulam compreensão emocional sem que exista uma verdadeira capacidade de entendimento clínico.

O estudo conclui ainda que os sistemas falham frequentemente na adaptação ao contexto individual de cada utilizador e podem apresentar discriminação injusta relacionada com género, cultura ou religião.

A investigação foi conduzida com o apoio de psicólogos clínicos licenciados, que avaliaram transcrições de sessões simuladas entre conselheiros treinados e modelos de IA programados para agir como terapeutas cognitivo-comportamentais.

Segundo a autora principal, Zainab Iftikhar, a principal diferença entre terapeutas humanos e sistemas de IA reside na responsabilização: enquanto profissionais estão sujeitos a ordens reguladoras e mecanismos disciplinares, não existem ainda estruturas legais e éticas consolidadas para responsabilizar sistemas baseados em IA.

Apesar das conclusões, os investigadores sublinham que a inteligência artificial pode ter um papel complementar no alargamento do acesso à saúde mental, sobretudo em contextos de escassez de profissionais. No entanto, defendem a criação urgente de padrões éticos, educacionais e legais robustos antes de confiar estes sistemas a situações de elevado risco, alertando para a necessidade de avaliação rigorosa e supervisão humana contínua.

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

Subescreve a Newsletter

Artigos Relacionados

Gestão do stress parental pode reduzir risco de obesidade infantil

Um estudo da Universidade de Yale indica que...

0

Estudo alerta para limitações do ChatGPT em conselhos médicos

Um estudo publicado na Nature revela que o...

0

Chile é o primeiro país das Américas a ser verificado pela OMS pela eliminação da lepra

O Chile tornou-se oficialmente o primeiro país das...

0