Google aconselha funcionários a não usar seu chatbot de IA para informações confidenciais

Renê Fraga
1 min de leitura

O Google, apesar de ter incorporado seu próprio chatbot de IA em seu mecanismo de busca, agora está orientando seus funcionários a evitarem usá-los para informações confidenciais.

A holding do Google, Alphabet, também estendeu esse aviso para códigos de computador e seu próprio chatbot, o Bard.

A empresa está preocupada com a possibilidade de vazamento de dados ao utilizar o chatbot, tanto para material confidencial quanto para códigos de programação.

Além disso, revisores humanos podem ler os chats, e pesquisadores descobriram que uma IA pode reproduzir os dados que absorveu durante o treinamento, criando um risco de vazamento.

Essa postura é semelhante à adotada pela Samsung, Amazon e Apple, que já proibiram o uso de chatbots de IA por seus funcionários.

✨ Curtiu este conteúdo?

O GDiscovery está aqui todos os dias trazendo informações confiáveis e independentes sobre o universo Google - e isso só é possível com o apoio de pessoas como você. 🙌

Com apenas R$ 5 por mês, você ajuda a manter este trabalho no ar e leva informação de qualidade para ainda mais gente!

Clique aqui e faça parte da nossa rede de apoiadores.

Seguir:
Renê Fraga é fundador do Google Discovery (GD) e editor-chefe do Eurisko. Profissional de marketing digital, com pós-graduação pela ESPM, acompanha o Google desde os anos 2000 e escreve há mais de duas décadas sobre tecnologia, produtos digitais e o ecossistema da empresa. Criador do Google Discovery em 2006, tornou-se referência na cobertura do Google no Brasil e foi colunista do TechTudo (Globo.com), compartilhando análises e conhecimento com um grande público.
Nenhum comentário