A divisão de pesquisa em IA da Google, DeepMind, anunciou a formação de uma nova organização com foco em segurança de inteligência artificial (IA).
A medida vem em resposta às crescentes preocupações sobre o uso indevido e a disseminação de informações enganosas por meio de ferramentas de IA.
A nova equipe, denominada AI Safety and Alignment, trabalhará em conjunto com a equipe de pesquisa existente da DeepMind e se concentrará em garantir a segurança em torno da inteligência artificial geral (AGI), bem como no desenvolvimento de salvaguardas para os modelos de IA atuais e futuros da Google.
A AI Safety and Alignment, liderada por Anca Dragan, ex-cientista de pesquisa da Waymo e professora de ciência da computação da UC Berkeley, terá como objetivo aprimorar a compreensão dos modelos de IA sobre as preferências e valores humanos, bem como garantir a transparência e a responsabilidade na interação entre humanos e IA.
A organização também buscará prevenir a propagação de informações médicas incorretas, garantir a segurança infantil e evitar a amplificação de viés e injustiças.
A criação dessa nova organização reflete o compromisso da Google em abordar os desafios e riscos associados à IA, em meio a preocupações crescentes da sociedade.
Embora seja reconhecido que a segurança perfeita em IA é um desafio complexo, a Google DeepMind está empenhada em investir recursos adicionais nessa área e a desenvolver um framework para avaliar os riscos de segurança dos modelos de IA.
✨ Curtiu este conteúdo?
O GDiscovery está aqui todos os dias trazendo informações confiáveis e independentes sobre o universo Google - e isso só é possível com o apoio de pessoas como você. 🙌
Com apenas R$ 5 por mês, você ajuda a manter este trabalho no ar e leva informação de qualidade para ainda mais gente!