e-Global

ChatGPT e privacidade: investigadores alertam para partilha de dados sensíveis

O ChatGPT tornou-se uma ferramenta popular para responder a perguntas e ajudar em tarefas do dia a dia. No entanto, investigadores alertam para os riscos de partilhar informações pessoais com este tipo de inteligência artificial.

Embora útil para redigir textos, rever código ou analisar dados, o ChatGPT recolhe dados das conversas para melhorar o seu desempenho. Isso levanta preocupações sobre a privacidade, sobretudo porque muitos utilizadores não sabem que podem desativar a utilização das suas conversas para treino do modelo.

Especialistas em cibersegurança identificam cinco tipos de informação que não devem ser partilhados com chatbots:

  1. Dados de identidade (como número de passaporte, morada, data de nascimento);
  2. Resultados médicos (sobretudo quando contêm dados identificativos que permitam associação);
  3. Informações financeiras (como dados bancários);
  4. Dados empresariais confidenciais;
  5. Palavras-passe e nomes de utilizador.

Ferramentas como o modo de chat temporário ou a eliminação do histórico de conversas são recomendadas para aumentar a privacidade.
Por outro lado, alternativas como o DuckDuckGo (Duck.ai) permitem o envio anónimo de perguntas, embora com limitações.

No fim, cabe ao utilizador decidir o que partilhar — mas os especialistas aconselham precaução.

Exit mobile version