Funcionários da Samsung compartilharam informações confidenciais com o ChatGPT, um chatbot da OpenAI, causando preocupações quanto à segurança de dados.
De acordo com a The Economist Korea, ao menos três engenheiros vazaram informações sigilosas para o sistema, solicitando a verificação de códigos-fonte, otimização de código e geração de atas a partir de gravações de reuniões.
A política de dados do ChatGPT informa que os prompts dos usuários são utilizados para treinar seus modelos, a menos que o usuário opte explicitamente por não compartilhá-los.
A OpenAI, proprietária do chatbot, recomenda que informações secretas não sejam compartilhadas com o sistema, pois ele não é capaz de deletar prompts específicos do histórico do usuário.
O único meio de remover informações pessoalmente identificáveis no ChatGPT é deletar a conta, processo que pode levar até quatro semanas.
Após o incidente, a Samsung tomou medidas para evitar futuros vazamentos, limitando o tamanho dos prompts para um kilobyte ou 1024 caracteres de texto, além de investigar os funcionários envolvidos e desenvolver seu próprio chatbot.
✨ Curtiu este conteúdo?
O GDiscovery está aqui todos os dias trazendo informações confiáveis e independentes sobre o universo Google - e isso só é possível com o apoio de pessoas como você. 🙌
Com apenas R$ 5 por mês, você ajuda a manter este trabalho no ar e leva informação de qualidade para ainda mais gente!