Google apresenta IA para ciências, mas especialistas têm dúvidas

Renê Fraga
3 min de leitura

Há algumas semanas, o Google anunciou o “AI co-scientist“, uma inteligência artificial desenvolvida para auxiliar cientistas na criação de hipóteses e no planejamento de pesquisas.

A proposta parece revolucionária: uma ferramenta capaz de acelerar descobertas e facilitar o trabalho dos pesquisadores. No entanto, especialistas alertam que a tecnologia ainda não está no nível prometido e pode não ser tão útil na prática quanto o marketing sugere.

Sarah Beery, pesquisadora do MIT na área de visão computacional, expressou suas dúvidas em entrevista ao TechCrunch. Para ela, a ferramenta não demonstra um valor prático real para a comunidade científica.

“É um conceito interessante, mas não vejo uma demanda concreta por um sistema de geração de hipóteses como esse”, disse.

O Google, assim como outras grandes empresas de tecnologia, aposta na ideia de que a IA será um grande avanço para a ciência, especialmente em áreas que exigem muita leitura e análise de dados, como a biomedicina.

O CEO da OpenAI, Sam Altman, chegou a afirmar que inteligências artificiais “superinteligentes” podem acelerar enormemente a inovação científica, enquanto Dario Amodei, CEO da Anthropic, prevê que a IA pode até ajudar na busca por curas para diferentes tipos de câncer.

Apesar dessas promessas, muitos pesquisadores veem limitações claras na IA como co-cientista. O próprio Google apontou que sua ferramenta já mostrou potencial em áreas como a reutilização de medicamentos para tratar leucemia mieloide aguda.

No entanto, a patologista Favia Dubyk, do Northwest Medical Center-Tucson, afirmou que os resultados apresentados foram vagos e que “nenhum cientista sério os levaria em consideração”.

Segundo Dubyk, a IA poderia ser útil como ponto de partida para pesquisas, mas a falta de informações detalhadas impede que qualquer profissional confie nela completamente.

Essa não é a primeira vez que o Google recebe críticas por exagerar os avanços de sua inteligência artificial sem fornecer meios concretos para validar os resultados.

Em 2020, a empresa afirmou que um de seus sistemas de IA superava radiologistas humanos na detecção de tumores de mama. No entanto, pesquisadores de Harvard e Stanford contestaram a afirmação, destacando que a falta de transparência nos métodos comprometia a credibilidade do estudo.

O mesmo pode acontecer com o “AI co-scientist”. Como alertou Ashique KhudaBukhsh, professor assistente do Rochester Institute of Technology, a IA pode parecer promissora em testes controlados, mas ainda enfrenta desafios para ser aplicada de forma confiável em larga escala.

Até que essas limitações sejam superadas, é improvável que a tecnologia substitua o trabalho humano na formulação de hipóteses científicas.

✨ Curtiu este conteúdo?

O GDiscovery está aqui todos os dias trazendo informações confiáveis e independentes sobre o universo Google - e isso só é possível com o apoio de pessoas como você. 🙌

Com apenas R$ 5 por mês, você ajuda a manter este trabalho no ar e leva informação de qualidade para ainda mais gente!

Clique aqui e faça parte da nossa rede de apoiadores.

Seguir:
Renê Fraga é fundador do Google Discovery (GD) e editor-chefe do Eurisko. Profissional de marketing digital, com pós-graduação pela ESPM, acompanha o Google desde os anos 2000 e escreve há mais de duas décadas sobre tecnologia, produtos digitais e o ecossistema da empresa. Criador do Google Discovery em 2006, tornou-se referência na cobertura do Google no Brasil e foi colunista do TechTudo (Globo.com), compartilhando análises e conhecimento com um grande público.
Nenhum comentário