Principais destaques
- Meta firmou acordo para alugar chips de inteligência artificial do Google para treinar e executar novos modelos de IA.
- As TPUs do Google podem complementar o desenvolvimento do modelo Llama e outras tecnologias da empresa.
- A estratégia da Meta inclui acordos simultâneos com Nvidia, AMD e também chips próprios.
Meta busca mais poder computacional para seus modelos de IA
A corrida global por infraestrutura de inteligência artificial ganhou um novo capítulo. A Meta Platforms assinou um acordo para alugar chips de IA desenvolvidos pelo Google, ampliando sua capacidade de processamento para criar novos modelos avançados.
Segundo informações divulgadas pelo The Information, a empresa passará a utilizar as unidades de processamento tensorial do Google, conhecidas como TPUs, por meio da plataforma Google Cloud. Esses chips são especializados em tarefas de inteligência artificial e podem acelerar tanto o treinamento quanto a execução de modelos complexos.
Além do aluguel, a Meta também estaria negociando a compra direta dessas unidades para instalação em seus próprios data centers a partir do próximo ano. Se confirmado, o movimento representaria uma integração ainda mais profunda entre as duas gigantes da tecnologia no campo da IA.
Uma estratégia com vários fornecedores de chips
O acordo com o Google é apenas uma peça de um plano muito maior. A Meta vem fechando parcerias com diferentes fabricantes de semicondutores para sustentar o crescimento de seus sistemas de inteligência artificial.
Recentemente, a empresa anunciou um acordo multibilionário com a AMD para utilizar GPUs da linha Instinct, com potencial de chegar a 60 bilhões de dólares ao longo de cinco anos. Pouco antes disso, também ampliou sua colaboração com a Nvidia, incluindo o uso de milhões de processadores da próxima geração.
De acordo com analistas do setor, a Meta está adotando uma estratégia de múltiplas frentes. Nesse modelo, a Nvidia continua sendo usada para treinar modelos mais avançados, enquanto a AMD ajuda na expansão da capacidade de inferência. As TPUs do Google podem servir para ampliar o processamento de projetos como o Llama, enquanto os chips próprios da empresa, chamados MTIA, seguem responsáveis por tarefas internas como algoritmos de recomendação.
Google quer transformar seus chips em um novo negócio
Para o Google, o acordo também representa um passo importante. Durante anos, as TPUs foram usadas principalmente dentro da própria empresa, ajudando a alimentar serviços como busca, tradução e ferramentas de inteligência artificial.
Agora, a companhia quer transformar esse hardware em uma plataforma comercial. Nos últimos meses, o Google começou a expandir o acesso às TPUs para parceiros externos, incluindo grandes empresas de IA.
Um exemplo foi o acordo assinado em 2025 com a Anthropic, que garantiu acesso a até um milhão desses chips. A empresa também trabalha para melhorar a compatibilidade das TPUs com o framework PyTorch, um dos mais populares no desenvolvimento de IA, reduzindo barreiras para novos clientes.
Executivos do Google Cloud acreditam que a comercialização das TPUs pode se tornar um negócio bilionário e até disputar uma parcela significativa da receita atualmente dominada pela Nvidia no mercado de chips para inteligência artificial.
✨ Curtiu este conteúdo?
O GDiscovery está aqui todos os dias trazendo informações confiáveis e independentes sobre o universo Google - e isso só é possível com o apoio de pessoas como você. 🙌
Com apenas R$ 5 por mês, você ajuda a manter este trabalho no ar e leva informação de qualidade para ainda mais gente!