A OpenAI, responsável pelo popular ChatGPT, afirmou hoje que não tem planos ativos para utilizar os chips de inteligência artificial desenvolvidos internamente pelo Google em larga escala.
A declaração veio após rumores divulgados por veículos como a Reuters, sugerindo que a empresa estaria avaliando o uso desses componentes para atender à crescente demanda por seus serviços.
De acordo com a OpenAI, estão sendo realizados apenas testes iniciais com os TPUs (unidades de processamento tensorial) do Google, mas ainda não há intenção de adotar essa tecnologia em seus produtos de forma abrangente.
É comum que empresas de tecnologia experimentem diferentes tipos de chips para avaliar performance e compatibilidade, mas o uso em escala exige mudanças significativas na arquitetura dos sistemas e no suporte de software.
Atualmente, a OpenAI segue utilizando majoritariamente GPUs da Nvidia e também vem adotando chips da AMD. Paralelamente, a empresa está desenvolvendo seu próprio chip, que deve atingir um marco importante ainda este ano com a finalização do design e o envio para fabricação.
Mesmo sem adotar os chips do Google, a OpenAI firmou recentemente um contrato com o Google Cloud para expandir sua capacidade computacional.
A maior parte dessa infraestrutura, no entanto, é baseada em servidores da CoreWeave, uma empresa especializada em computação em nuvem com GPUs.
Já o Google tem investido na abertura comercial de seus TPUs, conquistando clientes como a Apple e startups como a Anthropic e a Safe Superintelligence, ambas criadas por ex-membros da própria OpenAI.
Procurado para comentar o assunto, o Google preferiu não se pronunciar.
✨ Curtiu este conteúdo?
O GDiscovery está aqui todos os dias trazendo informações confiáveis e independentes sobre o universo Google - e isso só é possível com o apoio de pessoas como você. 🙌
Com apenas R$ 5 por mês, você ajuda a manter este trabalho no ar e leva informação de qualidade para ainda mais gente!