Principais destaques:
- O Google afirma que não utiliza fotos pessoais do Google Photos para treinar modelos de IA generativa
- A empresa esclareceu a política após acusações levantadas por uma concorrente focada em privacidade
- O debate reforça dúvidas antigas sobre análise de dados, mesmo quando não há uso para treinamento de IA
O Google voltou a se manifestar publicamente para esclarecer um ponto sensível para mais de um bilhão de usuários: as fotos armazenadas no Google Photos não são usadas para treinar modelos de inteligência artificial generativa, como o Nano Banana.
A declaração veio após uma nova onda de desconfiança sobre privacidade e uso de dados pessoais.
A polêmica ganhou visibilidade depois que uma empresa concorrente levantou suspeitas nas redes sociais, associando o avanço das ferramentas de geração de imagens do Google ao suposto uso de fotos privadas de usuários.
Mesmo sem apresentar provas, a afirmação foi suficiente para reacender um debate recorrente sobre transparência e limites no uso de dados.
O que o Google disse oficialmente
Em resposta à repercussão, o Google afirmou que não treina modelos de inteligência artificial generativa fora do Google Photos com dados pessoais dos usuários.
Segundo a empresa, isso inclui ferramentas avançadas de geração de imagens, como o Nano Banana, além de outros modelos da família Gemini.
O esclarecimento foi compartilhado em declaração enviada à Forbes, reforçando que o conteúdo armazenado no Google Photos permanece restrito às finalidades descritas nas políticas do próprio serviço.
Análise de fotos não significa treinamento de IA
O Google também reconhece que o Google Photos não utiliza criptografia de ponta a ponta.
Isso significa que imagens podem passar por análises automatizadas, principalmente para detecção de conteúdo ilegal, como material de abuso infantil, seguindo exigências legais e práticas de segurança.
A empresa destaca, no entanto, que esse tipo de verificação não equivale ao uso das fotos para treinar modelos de inteligência artificial generativa. Trata-se de processos distintos, com objetivos diferentes e controles específicos.
O que os usuários precisam entender
O episódio evidencia um desafio constante para plataformas digitais: explicar de forma clara a diferença entre análise de dados para segurança e uso de dados para treinamento de IA.
Em um cenário onde novas ferramentas surgem rapidamente, qualquer falta de clareza pode abalar a confiança dos usuários.
Para quem utiliza serviços em nuvem, a recomendação segue a mesma: entender como os dados são tratados, quais proteções existem e quais limites se aplicam ao uso de informações pessoais, especialmente quando o assunto envolve inteligência artificial.
✨ Curtiu este conteúdo?
O GDiscovery está aqui todos os dias trazendo informações confiáveis e independentes sobre o universo Google - e isso só é possível com o apoio de pessoas como você. 🙌
Com apenas R$ 5 por mês, você ajuda a manter este trabalho no ar e leva informação de qualidade para ainda mais gente!





