O ChatGPT tornou-se uma ferramenta popular para responder a perguntas e ajudar em tarefas do dia a dia. No entanto, investigadores alertam para os riscos de partilhar informações pessoais com este tipo de inteligência artificial.
Embora útil para redigir textos, rever código ou analisar dados, o ChatGPT recolhe dados das conversas para melhorar o seu desempenho. Isso levanta preocupações sobre a privacidade, sobretudo porque muitos utilizadores não sabem que podem desativar a utilização das suas conversas para treino do modelo.
Especialistas em cibersegurança identificam cinco tipos de informação que não devem ser partilhados com chatbots:
- Dados de identidade (como número de passaporte, morada, data de nascimento);
- Resultados médicos (sobretudo quando contêm dados identificativos que permitam associação);
- Informações financeiras (como dados bancários);
- Dados empresariais confidenciais;
- Palavras-passe e nomes de utilizador.
Ferramentas como o modo de chat temporário ou a eliminação do histórico de conversas são recomendadas para aumentar a privacidade.
Por outro lado, alternativas como o DuckDuckGo (Duck.ai) permitem o envio anónimo de perguntas, embora com limitações.
No fim, cabe ao utilizador decidir o que partilhar — mas os especialistas aconselham precaução.