A Samsung proibiu o uso do ChatGPT após funcionários inadvertidamente vazarem informações sensíveis para o chatbot.
De acordo com a Bloomberg, os funcionários da Samsung compartilharam o código-fonte com o ChatGPT para verificação de erros e para resumir notas de reuniões.
No entanto, as informações compartilhadas com o ChatGPT são armazenadas nos servidores da OpenAI e podem ser usadas para melhorar o modelo, a menos que os usuários optem por não compartilhá-las.
A proibição do uso do ChatGPT pela Samsung destaca os riscos de compartilhar informações pessoais e profissionais com chatbots de IA, que são frequentemente promovidos como ferramentas de produtividade para realizar tarefas de forma rápida e eficiente.
Instituições financeiras como JPMorgan, Bank of America e Citigroup também baniram ou restringiram o uso do ChatGPT devido a preocupações com a privacidade e riscos de segurança.
A OpenAI abordou algumas dessas preocupações implementando uma maneira mais clara de optar por não compartilhar dados e restrições de idade para usuários menores de 13 anos ou menores de 18 anos com permissão dos pais.
No entanto, o incidente na Samsung serve como um lembrete da necessidade de cautela ao usar chatbots de IA para lidar com informações confidenciais.
✨ Curtiu este conteúdo?
O GDiscovery está aqui todos os dias trazendo informações confiáveis e independentes sobre o universo Google - e isso só é possível com o apoio de pessoas como você. 🙌
Com apenas R$ 5 por mês, você ajuda a manter este trabalho no ar e leva informação de qualidade para ainda mais gente!