O Google, apesar de ter incorporado seu próprio chatbot de IA em seu mecanismo de busca, agora está orientando seus funcionários a evitarem usá-los para informações confidenciais.
A holding do Google, Alphabet, também estendeu esse aviso para códigos de computador e seu próprio chatbot, o Bard.
A empresa está preocupada com a possibilidade de vazamento de dados ao utilizar o chatbot, tanto para material confidencial quanto para códigos de programação.
Além disso, revisores humanos podem ler os chats, e pesquisadores descobriram que uma IA pode reproduzir os dados que absorveu durante o treinamento, criando um risco de vazamento.
Essa postura é semelhante à adotada pela Samsung, Amazon e Apple, que já proibiram o uso de chatbots de IA por seus funcionários.
✨ Curtiu este conteúdo?
O GDiscovery está aqui todos os dias trazendo informações confiáveis e independentes sobre o universo Google - e isso só é possível com o apoio de pessoas como você. 🙌
Com apenas R$ 5 por mês, você ajuda a manter este trabalho no ar e leva informação de qualidade para ainda mais gente!