ChatGPT pode adotar linguagem abusiva em discussões intensas, indica estudo

Um estudo recente concluiu que o ChatGPT, desenvolvido pela OpenAI, pode replicar linguagem agressiva quando exposto a conversas humanas cada vez mais hostis.

A investigação, publicada no Journal of Pragmatics, analisou como o modelo reage a conflitos em escalada. À medida que o tom das mensagens piorava, o sistema passou a refletir essa agressividade, chegando a usar insultos, palavrões e até ameaças.

Segundo os investigadores, essa reação sugere que, em contextos extremos, a IA pode contornar mecanismos de segurança e “imitar” o comportamento do interlocutor. Ainda assim, o estudo destaca que o chatbot tende, em geral, a ser menos agressivo do que humanos.

Os resultados levantam preocupações sobre o uso de inteligência artificial em ambientes sensíveis, como mediação de conflitos ou apoio ao público, onde a gestão adequada da linguagem é essencial.

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

Subescreve a Newsletter

Artigos Relacionados

França investiga suspeita de manipulação de dados meteorológicos para apostas

As autoridades de França abriram um inquérito a...

0

Reino Unido investiga venda online de dados de saúde de 500 mil voluntários

O governo do Reino Unido abriu uma investigação...

0

WhatsApp testa botão com IA para resumir todas as conversas

O WhatsApp está a desenvolver uma nova funcionalidade...

0