Na última terça-feira, a Google anunciou uma atualização em suas diretrizes éticas sobre o uso de inteligência artificial (IA), e a mudança não passou despercebida entre seus funcionários.
A empresa removeu uma promessa importante: a de não usar IA para o desenvolvimento de armas ou sistemas de vigilância.
A decisão gerou uma onda de reações internas, especialmente no fórum Memegen, onde os colaboradores costumam expressar opiniões de forma descontraída, mas direta.
Um dos memes mais compartilhados mostrava o CEO da Google, Sundar Pichai, pesquisando no buscador da empresa: “como se tornar um contratante de armas?”.
Outro meme, inspirado em uma cena de comédia britânica, trazia a pergunta: “Somos os vilões da história?”.
Apesar das críticas, é importante destacar que essas reações vêm de um grupo pequeno dentro da Google, que tem mais de 180 mil colaboradores. Nem todos se opõem à mudança.
Alguns podem até apoiar uma maior colaboração com clientes de defesa e o governo dos EUA, especialmente em um momento em que a competição global por liderança em IA está mais acirrada do que nunca.
A empresa justificou a mudança em um post no blog oficial, afirmando que o cenário geopolítico atual exige que empresas e governos trabalhem juntos em prol da “segurança nacional”.
No entanto, a decisão reacendeu um debate que já havia surgido em 2018, quando o Google desistiu de um contrato com o Pentágono após protestos internos.
Agora, a pergunta que fica é: até que ponto a empresa está disposta a abrir mão de seus princípios éticos em nome de interesses estratégicos?
✨ Curtiu este conteúdo?
O GDiscovery está aqui todos os dias trazendo informações confiáveis e independentes sobre o universo Google - e isso só é possível com o apoio de pessoas como você. 🙌
Com apenas R$ 5 por mês, você ajuda a manter este trabalho no ar e leva informação de qualidade para ainda mais gente!