Há algumas semanas, o Google anunciou o “AI co-scientist“, uma inteligência artificial desenvolvida para auxiliar cientistas na criação de hipóteses e no planejamento de pesquisas.
A proposta parece revolucionária: uma ferramenta capaz de acelerar descobertas e facilitar o trabalho dos pesquisadores. No entanto, especialistas alertam que a tecnologia ainda não está no nível prometido e pode não ser tão útil na prática quanto o marketing sugere.
Sarah Beery, pesquisadora do MIT na área de visão computacional, expressou suas dúvidas em entrevista ao TechCrunch. Para ela, a ferramenta não demonstra um valor prático real para a comunidade científica.
“É um conceito interessante, mas não vejo uma demanda concreta por um sistema de geração de hipóteses como esse”, disse.
O Google, assim como outras grandes empresas de tecnologia, aposta na ideia de que a IA será um grande avanço para a ciência, especialmente em áreas que exigem muita leitura e análise de dados, como a biomedicina.
O CEO da OpenAI, Sam Altman, chegou a afirmar que inteligências artificiais “superinteligentes” podem acelerar enormemente a inovação científica, enquanto Dario Amodei, CEO da Anthropic, prevê que a IA pode até ajudar na busca por curas para diferentes tipos de câncer.
Apesar dessas promessas, muitos pesquisadores veem limitações claras na IA como co-cientista. O próprio Google apontou que sua ferramenta já mostrou potencial em áreas como a reutilização de medicamentos para tratar leucemia mieloide aguda.
No entanto, a patologista Favia Dubyk, do Northwest Medical Center-Tucson, afirmou que os resultados apresentados foram vagos e que “nenhum cientista sério os levaria em consideração”.
Segundo Dubyk, a IA poderia ser útil como ponto de partida para pesquisas, mas a falta de informações detalhadas impede que qualquer profissional confie nela completamente.
Essa não é a primeira vez que o Google recebe críticas por exagerar os avanços de sua inteligência artificial sem fornecer meios concretos para validar os resultados.
Em 2020, a empresa afirmou que um de seus sistemas de IA superava radiologistas humanos na detecção de tumores de mama. No entanto, pesquisadores de Harvard e Stanford contestaram a afirmação, destacando que a falta de transparência nos métodos comprometia a credibilidade do estudo.
O mesmo pode acontecer com o “AI co-scientist”. Como alertou Ashique KhudaBukhsh, professor assistente do Rochester Institute of Technology, a IA pode parecer promissora em testes controlados, mas ainda enfrenta desafios para ser aplicada de forma confiável em larga escala.
Até que essas limitações sejam superadas, é improvável que a tecnologia substitua o trabalho humano na formulação de hipóteses científicas.
✨ Curtiu este conteúdo?
O GDiscovery está aqui todos os dias trazendo informações confiáveis e independentes sobre o universo Google - e isso só é possível com o apoio de pessoas como você. 🙌
Com apenas R$ 5 por mês, você ajuda a manter este trabalho no ar e leva informação de qualidade para ainda mais gente!