Um estudo recente mostrou que os sistemas baseados em visão de máquina podem ser enganados na identificação de objetos 3D.
Empresas como a Waymo, que conduz teste de carros-autônomos, a Nest, que pretende colocar câmeras de vigilância inteligentes, juntas se esforçam para substituir os olhos humanos pela inteligência artificial (AI).
No entanto, segundo a Labsix, a tecnologia ainda precisa ser bastante refinada: ela alega que objetos 3D enganam as redes neurais, não importa como os objetos sejam vistos.
Utilizando o sistema de classificação de imagem InceptionV3 do Google, a empresa afirma que a AI foi capaz de entender que uma mini tartaruga de brinquedo poderia ser confundida com um rifle.
Já imaginou o problema caso um sistema de segurança esteja nas mãos de uma máquina com visão robótica?
“As redes neurais são particularmente vulneráveis a exemplos contraditórios, entradas cuidadosamente perturbadas podem causar uma classificação errada”, dizem os pesquisadores.
✨ Curtiu este conteúdo?
O GDiscovery está aqui todos os dias trazendo informações confiáveis e independentes sobre o universo Google - e isso só é possível com o apoio de pessoas como você. 🙌
Com apenas R$ 5 por mês, você ajuda a manter este trabalho no ar e leva informação de qualidade para ainda mais gente!