Google lança TranslateGemma, modelos abertos de tradução com suporte a 55 idiomas

Renê Fraga
4 min de leitura

Principais destaques:

  • O Google apresentou o TranslateGemma, novos modelos abertos de tradução baseados no Gemma 3
  • Versões menores conseguem desempenho superior a modelos maiores graças a treinamento especializado
  • A tecnologia foi pensada para rodar desde celulares até servidores em nuvem

O Google anunciou o lançamento do TranslateGemma, um conjunto de modelos de inteligência artificial voltados exclusivamente para tradução automática.

A novidade amplia a família Gemma e chega em um momento de forte concorrência no setor, justamente quando a OpenAI também colocou no ar sua ferramenta ChatGPT Translate.

Os modelos foram apresentados em 15 de janeiro de 2026 e utilizam a arquitetura Gemma 3. Eles estão disponíveis em três tamanhos, com 4 bilhões, 12 bilhões e 27 bilhões de parâmetros, oferecendo suporte direto a 55 idiomas e podendo ser usados tanto em dispositivos móveis quanto em ambientes corporativos de nuvem.

Modelos menores mostram eficiência surpreendente

Um dos pontos que mais chamaram atenção nos testes internos do Google foi o desempenho dos modelos menores.

O TranslateGemma de 12 bilhões de parâmetros superou o Gemma 3 base de 27 bilhões no benchmark MetricX, que mede erros de tradução. Quanto menor a pontuação, melhor o resultado, e o modelo especializado mostrou menos falhas mesmo sendo mais compacto.

Na prática, isso significa que desenvolvedores podem obter traduções mais precisas usando menos recursos computacionais.

O modelo de 4 bilhões, por exemplo, alcança resultados próximos aos de modelos bem maiores, o que o torna ideal para smartphones, aplicações locais e soluções de edge computing.

Treinamento em duas etapas com apoio do Gemini

Segundo o Google, esse ganho de qualidade vem de um processo de treinamento em duas fases.

Primeiro, os modelos passaram por ajuste supervisionado com textos traduzidos por humanos e também por traduções sintéticas geradas pelos modelos Gemini.

Em seguida, foi aplicado aprendizado por reforço com modelos de recompensa, como MetricX-QE e AutoMQM, para refinar a fluidez e a precisão contextual.

Idiomas com menos dados disponíveis foram os que mais se beneficiaram. Traduções entre inglês e islandês tiveram redução de erros acima de 30 por cento, enquanto pares como inglês e suaíli melhoraram cerca de 25 por cento.

Além dos principais idiomas, o Google treinou os modelos em quase 500 pares adicionais, embora esses resultados ainda não tenham métricas públicas consolidadas.

Uso flexível em celulares, laptops e nuvem

Cada versão do TranslateGemma foi pensada para um cenário específico. O modelo 4B é indicado para dispositivos móveis e aplicações locais.

O 12B pode rodar em laptops de uso comum, enquanto o 27B foi projetado para nuvem, funcionando em uma única GPU H100 ou em TPUs.

Os modelos também preservam características multimodais do Gemma 3 e apresentam bom desempenho na tradução de textos dentro de imagens, mesmo sem treinamento multimodal dedicado.

O TranslateGemma já está disponível para download no Kaggle e no Hugging Face, além de poder ser usado via Vertex AI.

O lançamento reforça a estratégia do Google de ampliar sua linha de modelos abertos, que já inclui variantes como MedGemma, voltada à área médica, e Gemma 3n, focada em dispositivos móveis, em um mercado cada vez mais competitivo.

✨ Curtiu este conteúdo?

O GDiscovery está aqui todos os dias trazendo informações confiáveis e independentes sobre o universo Google - e isso só é possível com o apoio de pessoas como você. 🙌

Com apenas R$ 5 por mês, você ajuda a manter este trabalho no ar e leva informação de qualidade para ainda mais gente!

Clique aqui e faça parte da nossa rede de apoiadores.

Seguir:
Renê Fraga é fundador do Google Discovery (GD) e editor-chefe do Eurisko. Profissional de marketing digital, com pós-graduação pela ESPM, acompanha o Google desde os anos 2000 e escreve há mais de duas décadas sobre tecnologia, produtos digitais e o ecossistema da empresa. Criador do Google Discovery em 2006, tornou-se referência na cobertura do Google no Brasil e foi colunista do TechTudo (Globo.com), compartilhando análises e conhecimento com um grande público.
Nenhum comentário