Um estudo recente concluiu que o ChatGPT, desenvolvido pela OpenAI, pode replicar linguagem agressiva quando exposto a conversas humanas cada vez mais hostis.
A investigação, publicada no Journal of Pragmatics, analisou como o modelo reage a conflitos em escalada. À medida que o tom das mensagens piorava, o sistema passou a refletir essa agressividade, chegando a usar insultos, palavrões e até ameaças.
Segundo os investigadores, essa reação sugere que, em contextos extremos, a IA pode contornar mecanismos de segurança e “imitar” o comportamento do interlocutor. Ainda assim, o estudo destaca que o chatbot tende, em geral, a ser menos agressivo do que humanos.
Os resultados levantam preocupações sobre o uso de inteligência artificial em ambientes sensíveis, como mediação de conflitos ou apoio ao público, onde a gestão adequada da linguagem é essencial.