🤖 Principais destaques:
- Big Sleep, IA desenvolvida pelo Google, identificou 20 vulnerabilidades em softwares de código aberto.
- As falhas foram descobertas sem intervenção humana, mas revisadas por especialistas antes da notificação.
- Projeto reforça o avanço das IAs no campo da cibersegurança, apesar de preocupações sobre falsos positivos.
O Google anunciou que sua nova ferramenta de inteligência artificial chamada Big Sleep, voltada para encontrar falhas de segurança em sistemas, já demonstrou resultados concretos: identificou 20 vulnerabilidades em projetos populares de código aberto.
A informação foi compartilhada por Heather Adkins, vice-presidente de segurança do Google, que explicou que os bugs foram detectados principalmente em softwares como a biblioteca de áudio e vídeo FFmpeg e o editor de imagens ImageMagick.
Apesar de os detalhes técnicos não terem sido divulgados, uma prática comum para evitar exploração antes da correção, o Google ressaltou que todas as vulnerabilidades foram descobertas e reproduzidas de forma autônoma pela IA.
Um especialista humano apenas revisou os relatórios antes do envio aos mantenedores dos projetos.
Big Sleep une forças de duas potências do Google: DeepMind e Project Zero
O desenvolvimento do Big Sleep é fruto da colaboração entre a DeepMind, divisão de inteligência artificial do Google, e o Project Zero, grupo de elite focado em encontrar vulnerabilidades em softwares utilizados em larga escala.
Segundo Kimberly Samra, porta-voz da empresa, o sistema atua sozinho durante a fase de investigação e reprodução dos bugs.
A presença de um humano no processo é apenas para garantir a qualidade e a clareza do relatório enviado.
Royal Hansen, vice-presidente de engenharia do Google, afirmou que o Big Sleep representa “uma nova fronteira na descoberta automatizada de vulnerabilidades”, marcando um passo importante rumo a sistemas mais seguros com a ajuda da IA.
Concorrência cresce, mas confiança ainda é um desafio
O Big Sleep se junta a outras ferramentas similares como RunSybil e XBOW, que também buscam automatizar a identificação de vulnerabilidades.
A XBOW, por exemplo, se destacou recentemente por alcançar o topo de um ranking na plataforma HackerOne, especializada em programas de recompensa por bugs.
Entretanto, o uso de IAs para esse tipo de tarefa ainda enfrenta críticas. Manutentores de projetos de código aberto relataram o recebimento de alertas falsos, as chamadas alucinações da IA, que confundem mais do que ajudam.
Vlad Ionescu, CTO da startup RunSybil, reconhece o potencial do Big Sleep, destacando a qualidade do projeto e a experiência do time envolvido, mas também alerta para o excesso de ruído nos relatórios gerados por sistemas automatizados: “Parece ouro, mas é só lixo”, afirmou.
✨ Curtiu este conteúdo?
O GDiscovery está aqui todos os dias trazendo informações confiáveis e independentes sobre o universo Google - e isso só é possível com o apoio de pessoas como você. 🙌
Com apenas R$ 5 por mês, você ajuda a manter este trabalho no ar e leva informação de qualidade para ainda mais gente!