Funcionários do Google criticaram o chatbot Bard da empresa, rotulando-o como “um mentiroso patológico” e pedindo à empresa que não o lançasse, segundo um relatório da Bloomberg.
O relatório cita discussões com 18 trabalhadores atuais e antigos do Google, bem como capturas de tela de mensagens internas.
Em uma das discussões internas, um funcionário observou como o Bard frequentemente dava conselhos perigosos aos usuários, seja em tópicos como como pousar um avião ou mergulho.
Outro disse: “Bard é pior do que inútil: por favor, não lancem”.
A Bloomberg diz que a empresa até “ignorou uma avaliação de risco” apresentada por uma equipe interna de segurança, dizendo que o sistema não estava pronto para uso geral.
O Google disponibilizou acesso antecipado ao bot “experimental” em março de qualquer maneira.
O relatório da Bloomberg ilustra como o Google parece ter deixado de lado as preocupações éticas em um esforço para competir com rivais como a Microsoft e a OpenAI.
Embora a empresa enfatize seu trabalho de segurança e ética em IA, ela tem sido criticada por priorizar os negócios em vez disso.
Em 2020 e 2021, a empresa demitiu dois pesquisadores – Timnit Gebru e Margaret Mitchell – depois que eles escreveram um artigo expondo falhas nos mesmos sistemas de linguagem de IA que sustentam chatbots como o Bard.
Agora, no entanto, com esses sistemas ameaçando o modelo de negócios de busca do Google, a empresa parece ainda mais focada nos negócios do que na segurança.
Um porta-voz do Google disse à Bloomberg que a ética em IA continua sendo uma prioridade máxima para a empresa.
“Estamos continuando a investir nas equipes que trabalham na aplicação de nossos Princípios de IA em nossa tecnologia”, disse o porta-voz.
✨ Curtiu este conteúdo?
O GDiscovery está aqui todos os dias trazendo informações confiáveis e independentes sobre o universo Google - e isso só é possível com o apoio de pessoas como você. 🙌
Com apenas R$ 5 por mês, você ajuda a manter este trabalho no ar e leva informação de qualidade para ainda mais gente!