A OpenAI, empresa responsável pelo popular ChatGPT, começou a utilizar os chips de inteligência artificial desenvolvidos pelo Google para atender à crescente demanda de seus produtos.
A informação foi revelada por fontes ouvidas pela agência Reuters e reforça uma colaboração incomum entre duas das maiores empresas do setor de IA.
Tradicionalmente, a OpenAI depende fortemente das GPUs da Nvidia, que são amplamente utilizadas para treinar modelos de inteligência artificial e realizar inferências, ou seja, quando a IA aplica seu conhecimento para responder perguntas ou tomar decisões.
No entanto, a empresa decidiu ampliar sua infraestrutura computacional com o Google Cloud, que oferece os chamados TPUs (unidades de processamento tensor), chips desenvolvidos internamente pelo Google.
Essa mudança marca a primeira vez que a OpenAI utiliza de forma significativa chips que não são da Nvidia. Além disso, pode indicar um leve distanciamento dos centros de dados da Microsoft, principal investidora da OpenAI.
Os TPUs do Google são conhecidos por oferecerem uma alternativa mais econômica, o que pode ajudar a empresa a reduzir os custos operacionais de seus sistemas de IA.
Embora o Google esteja alugando seus TPUs para a OpenAI, a empresa não liberou suas versões mais potentes para a rival.
Mesmo assim, a parceria mostra como o Google vem abrindo seu ecossistema de inteligência artificial para impulsionar o crescimento do Google Cloud.
Com clientes como Apple, Anthropic e agora a OpenAI, o Google reforça sua presença em um mercado cada vez mais competitivo e estratégico.
✨ Curtiu este conteúdo?
O GDiscovery está aqui todos os dias trazendo informações confiáveis e independentes sobre o universo Google - e isso só é possível com o apoio de pessoas como você. 🙌
Com apenas R$ 5 por mês, você ajuda a manter este trabalho no ar e leva informação de qualidade para ainda mais gente!