ChatGPT pode adotar linguagem abusiva em discussões intensas, indica estudo

Um estudo recente concluiu que o ChatGPT, desenvolvido pela OpenAI, pode replicar linguagem agressiva quando exposto a conversas humanas cada vez mais hostis.

A investigação, publicada no Journal of Pragmatics, analisou como o modelo reage a conflitos em escalada. À medida que o tom das mensagens piorava, o sistema passou a refletir essa agressividade, chegando a usar insultos, palavrões e até ameaças.

Segundo os investigadores, essa reação sugere que, em contextos extremos, a IA pode contornar mecanismos de segurança e “imitar” o comportamento do interlocutor. Ainda assim, o estudo destaca que o chatbot tende, em geral, a ser menos agressivo do que humanos.

Os resultados levantam preocupações sobre o uso de inteligência artificial em ambientes sensíveis, como mediação de conflitos ou apoio ao público, onde a gestão adequada da linguagem é essencial.

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

Subescreve a Newsletter

Artigos Relacionados

WhatsApp testa botão com IA para resumir todas as conversas

O WhatsApp está a desenvolver uma nova funcionalidade...

0

Venezuela: Socióloga peruana assume liderança de missão da ONU sobre direitos humanos

A socióloga peruana Sofía Macher Batanero foi nomeada...

0

Provedora de Justiça Europeia propõe novas regras para travar casos de “porta giratória”

A Provedoria de Justiça Europeia apresentou novas orientações...

0