Principais destaques
- O YouTube começou a liberar sua tecnologia de detecção de deepfakes para políticos, autoridades e jornalistas.
- A ferramenta identifica vídeos que usam rostos gerados por inteligência artificial sem autorização.
- O sistema funciona de forma semelhante ao Content ID, mas focado em identificar rostos manipulados por IA.
O YouTube anunciou a ampliação de sua ferramenta de detecção de deepfakes para um novo grupo de usuários: autoridades governamentais, candidatos políticos e jornalistas.
A iniciativa faz parte de um programa piloto que busca oferecer mais proteção para figuras públicas diante do crescimento de vídeos manipulados por inteligência artificial.
A tecnologia já havia sido lançada anteriormente para criadores da plataforma. Agora, o objetivo é ampliar o alcance do sistema para áreas consideradas mais sensíveis, como o debate público e o cenário político, onde o impacto de conteúdos falsificados pode ser muito maior.
Como funciona o sistema de identificação
A tecnologia funciona de maneira parecida com o Content ID, ferramenta conhecida do YouTube usada para identificar conteúdos protegidos por direitos autorais.
A diferença é que, nesse caso, o sistema analisa vídeos enviados para encontrar rostos que possam ter sido gerados ou manipulados por inteligência artificial.
Para utilizar a ferramenta, os participantes precisam confirmar sua identidade. Isso inclui o envio de um documento oficial com foto e um vídeo selfie para verificação. Depois de aprovados, eles passam a ter acesso a um painel que mostra vídeos suspeitos envolvendo sua imagem.
Caso encontrem conteúdo falso ou não autorizado, podem solicitar a remoção diretamente pela ferramenta de denúncia de privacidade da plataforma.
Nem todo vídeo será removido
Apesar do novo recurso, o YouTube deixou claro que a detecção de deepfakes não significa remoção automática do conteúdo. A empresa afirma que continuará protegendo conteúdos de paródia, sátira e comentários políticos, mesmo quando envolverem figuras públicas.
Segundo Leslie Miller, vice-presidente de assuntos governamentais e políticas públicas do YouTube, a expansão tem como objetivo proteger o debate público sem limitar a liberdade de expressão.
A executiva destacou que os riscos de personificação por inteligência artificial são especialmente altos no ambiente cívico, o que justifica a ampliação da ferramenta.
Da comunidade de criadores para o debate público
O sistema de detecção foi desenvolvido inicialmente em 2024 em parceria com a Creative Artists Agency. Nos testes iniciais, criadores populares como MrBeast e Marques Brownlee participaram da avaliação da tecnologia.
Posteriormente, o recurso foi liberado para milhões de criadores que fazem parte do Programa de Parcerias do YouTube. Segundo a empresa, o número de pedidos de remoção entre criadores tem sido relativamente baixo.
Com a chegada da ferramenta ao ambiente político e jornalístico, o cenário pode mudar. Vídeos manipulados envolvendo líderes ou candidatos podem ter impacto direto na confiança pública e no processo democrático.
O YouTube informou que pretende expandir o acesso gradualmente nos próximos meses e também estuda novas tecnologias capazes de detectar imitações de voz e representações geradas por inteligência artificial.
✨ Curtiu este conteúdo?
O GDiscovery está aqui todos os dias trazendo informações confiáveis e independentes sobre o universo Google - e isso só é possível com o apoio de pessoas como você. 🙌
Com apenas R$ 5 por mês, você ajuda a manter este trabalho no ar e leva informação de qualidade para ainda mais gente!