Principais destaques:
- Uma vulnerabilidade no Gemini permitia o vazamento de dados privados do calendário sem ações suspeitas do usuário
- O ataque explorava injeção indireta de prompt escondida em convites de reunião
- O Google confirmou o problema e já aplicou uma correção após divulgação responsável
Pesquisadores de segurança revelaram nesta semana uma falha crítica no Google Gemini, capaz de expor informações privadas do Google Agenda por meio de convites de reunião aparentemente inofensivos.
O problema foi identificado pela Miggo Security e reacendeu o debate sobre os limites atuais da segurança em sistemas de inteligência artificial integrados a serviços pessoais e corporativos.
Segundo os pesquisadores, o usuário não precisava clicar em links, abrir anexos ou autorizar nada manualmente. Bastava fazer uma pergunta comum ao assistente, como verificar disponibilidade em determinado dia, para que o ataque fosse acionado de forma silenciosa.
Como o ataque explorava o Gemini
A falha se baseava em uma técnica conhecida como injeção indireta de prompt. Nesse tipo de ataque, instruções maliciosas são camufladas em conteúdos que a IA foi projetada para ler e interpretar. No caso, o vetor era um convite de calendário comum.
O invasor enviava um evento com um texto cuidadosamente elaborado no campo de descrição. Esse texto instruía o Gemini a coletar informações de outras reuniões privadas do usuário e gerar um novo evento contendo um resumo desses dados. Tudo isso ocorria sem alertas visíveis e sem quebrar, de forma explícita, as regras tradicionais de segurança.
Três etapas silenciosas e eficazes
O processo seguia uma cadeia bem definida. Primeiro, o convite com a carga maliciosa era enviado e permanecia inativo. Depois, ao consultar a agenda via Gemini, o assistente processava todos os eventos relevantes, incluindo o contaminado. Por fim, o Gemini criava um novo evento com informações privadas resumidas, que em muitos ambientes corporativos ficava visível para terceiros, inclusive o atacante.
Para a vítima, nada parecia fora do normal. O assistente apenas respondia à pergunta original com uma mensagem simples sobre disponibilidade, enquanto os dados já haviam sido expostos em segundo plano.
Um alerta maior para a segurança da IA
O Google confirmou a vulnerabilidade e informou que o problema foi corrigido após o processo de divulgação responsável. Ainda assim, especialistas destacam que o caso revela um desafio estrutural: sistemas de IA continuam tendo dificuldade em diferenciar intenção legítima de comandos maliciosos quando tudo é apresentado em linguagem natural.
Esse não foi um caso isolado. Vulnerabilidades semelhantes já haviam sido relatadas anteriormente no Gemini, reforçando que o risco não está apenas no código, mas também no contexto e no comportamento dinâmico da IA. Não por acaso, a injeção de prompt aparece como o principal risco emergente no ranking de segurança para modelos de linguagem do OWASP em 2025.
Para pesquisadores, o episódio deixa um recado claro: à medida que assistentes de IA ganham mais autonomia e integração com dados sensíveis, proteger a linguagem se torna tão importante quanto proteger sistemas tradicionais.
✨ Curtiu este conteúdo?
O GDiscovery está aqui todos os dias trazendo informações confiáveis e independentes sobre o universo Google - e isso só é possível com o apoio de pessoas como você. 🙌
Com apenas R$ 5 por mês, você ajuda a manter este trabalho no ar e leva informação de qualidade para ainda mais gente!






