A NTIA pediu comentários sobre estratégias para promover a responsabilização em sistemas de inteligência artificial (IA) confiáveis, e o Google respondeu.
A empresa reconheceu a necessidade de autoregulação e governança para alcançar IA confiável, destacando seus próprios esforços em ética e segurança em IA, incluindo avaliações de risco e justiça.
O Google recomendou um modelo de regulamentação de IA “hub-and-spoke”, em que reguladores setoriais supervisionam a implementação de IA com orientação de uma agência central, como o NIST.
Também concordou que os mecanismos de responsabilização, como auditorias e certificações, podem fornecer garantias de sistemas de IA confiáveis, mas enfatizou que enfrentam desafios na implementação.
O Google apoiou a utilização de quadros regulatórios existentes onde aplicáveis e intervenções baseadas em risco para IA de alto risco. A empresa incentivou a abordagem colaborativa e baseada em consenso para o desenvolvimento de padrões técnicos.
Assim como outros envolvidos, o Google acredita que é necessário uma mistura de autoregulação, padrões técnicos e políticas governamentais limitadas e baseadas em risco para avançar na responsabilização em IA.
✨ Curtiu este conteúdo?
O GDiscovery está aqui todos os dias trazendo informações confiáveis e independentes sobre o universo Google - e isso só é possível com o apoio de pessoas como você. 🙌
Com apenas R$ 5 por mês, você ajuda a manter este trabalho no ar e leva informação de qualidade para ainda mais gente!