Google remove resumos de saúde feitos por IA após alertas sobre riscos graves

Renê Fraga
3 min de leitura

Principais destaques:

  • O Google retirou resumos automáticos de saúde após relatos de informações médicas incorretas.
  • Investigações apontaram dados enganosos sobre exames do fígado e orientações perigosas para pacientes.
  • Especialistas alertam que o problema pode persistir em buscas semelhantes.

O Google começou a remover alguns de seus resumos de saúde gerados por inteligência artificial depois que uma investigação do The Guardian revelou erros médicos potencialmente perigosos exibidos diretamente nos resultados de busca.

As falhas estavam ligadas ao recurso AI Overviews, que apresenta respostas automáticas no topo da página.

Com mais de 90% de participação no mercado global de buscas, qualquer imprecisão desse tipo ganha escala rapidamente.

Após a repercussão, consultas como “faixa normal de exames de sangue do fígado” deixaram de exibir os resumos automáticos, segundo constatado dias depois da publicação da reportagem.

Exames hepáticos no centro da polêmica

A investigação mostrou que, ao buscar valores de referência para testes do fígado, o sistema apresentava listas de números sem considerar fatores essenciais, como idade, sexo ou histórico clínico.

Especialistas alertaram que isso poderia levar pessoas com doenças graves a acreditarem que seus exames estavam normais.

Vanessa Hebditch, diretora da British Liver Trust, explicou que testes de função hepática envolvem vários marcadores e exigem interpretação médica cuidadosa.

Segundo ela, apenas comparar números pode atrasar diagnósticos e tratamentos importantes.

Outros erros médicos preocupantes

Além dos exames do fígado, a apuração identificou recomendações equivocadas para pacientes com câncer de pâncreas, sugerindo evitar alimentos gordurosos, quando, na prática, muitas vezes ocorre o contrário.

Também foram encontradas informações incorretas sobre exames de rastreamento de câncer em mulheres.

Esses exemplos reforçaram o receio de que respostas automáticas, quando retiradas de contexto, possam causar mais confusão do que ajuda em temas sensíveis como saúde.

Remoções não encerram o debate

Apesar da remoção de algumas consultas específicas, especialistas afirmam que o problema não está totalmente resolvido.

Variações simples das mesmas perguntas ainda conseguem acionar os resumos de IA. O Google informou que está revisando esses casos e fazendo ajustes mais amplos quando o sistema perde contexto.

Em nota, a empresa disse que não comenta remoções individuais e que, em muitos casos, suas informações são baseadas em fontes consideradas confiáveis.

Mesmo assim, o episódio reacende o debate sobre os limites do uso de inteligência artificial em orientações médicas, especialmente quando milhões de pessoas recorrem à busca em momentos de vulnerabilidade.

✨ Curtiu este conteúdo?

O GDiscovery está aqui todos os dias trazendo informações confiáveis e independentes sobre o universo Google - e isso só é possível com o apoio de pessoas como você. 🙌

Com apenas R$ 5 por mês, você ajuda a manter este trabalho no ar e leva informação de qualidade para ainda mais gente!

Clique aqui e faça parte da nossa rede de apoiadores.

Seguir:
Renê Fraga é fundador do Google Discovery (GD) e editor-chefe do Eurisko. Profissional de marketing digital, com pós-graduação pela ESPM, acompanha o Google desde os anos 2000 e escreve há mais de duas décadas sobre tecnologia, produtos digitais e o ecossistema da empresa. Criador do Google Discovery em 2006, tornou-se referência na cobertura do Google no Brasil e foi colunista do TechTudo (Globo.com), compartilhando análises e conhecimento com um grande público.
Nenhum comentário