Um estudo publicado na Nature revela que o ChatGPT Health tem dificuldade em identificar situações que exigem cuidados médicos urgentes. Apesar de milhões de pessoas recorrerem à ferramenta semanalmente, o sistema subestimou mais de metade dos casos graves, funcionando bem apenas em emergências óbvias, como AVC ou reacções alérgicas severas.
Também se constatou que o aviso de ajuda em casos de autoagressão ou pensamentos suicidas surge de forma inconsistente. Os investigadores recomendam que pacientes com sintomas graves – dor no peito, falta de ar ou alterações do estado mental – procurem imediatamente assistência médica, usando a IA apenas como complemento, e não substituto, do julgamento clínico.
O estudo salienta que o desempenho do ChatGPT evoluirá à medida que os modelos de IA são atualizados.
