IA de texto para vídeo ‘Sora’ da OpenAI será disponibilizada ao público ainda este ano

Renê Fraga
1 min de leitura

A OpenAI anunciou que seu modelo de IA de texto para vídeo “Sora” será disponibilizado ao público ainda em 2024.

Este modelo transforma comandos de texto em vídeos impressionantes de 60 segundos, abrindo novas possibilidades para criadores de conteúdo.

O “Sora” chamou a atenção no início deste ano com sua capacidade de gerar vídeos realistas com base em prompts de texto. Alguns exemplos são tão convincentes que é difícil diferenciá-los de gravações de vídeo reais.

Até agora, apenas a OpenAI teve acesso ao “Sora”, mas isso está prestes a mudar. Em uma entrevista ao The Wall Street Journal, Mira Murati da OpenAI confirmou que o modelo será lançado “definitivamente este ano”, possivelmente “em alguns meses”.

Além de criar vídeos a partir do zero, o “Sora” também permitirá que os usuários editem os resultados, solicitando diretamente a correção de problemas nos vídeos. No entanto, o modelo não trabalhará com áudio por enquanto.

A OpenAI treinou o “Sora” usando vídeos “publicamente disponíveis” e vídeos licenciados do Shutterstock. No entanto, a empresa não revelou se usou vídeos do YouTube ou outras fontes específicas.

✨ Curtiu este conteúdo?

O GDiscovery está aqui todos os dias trazendo informações confiáveis e independentes sobre o universo Google - e isso só é possível com o apoio de pessoas como você. 🙌

Com apenas R$ 5 por mês, você ajuda a manter este trabalho no ar e leva informação de qualidade para ainda mais gente!

Clique aqui e faça parte da nossa rede de apoiadores.

Seguir:
Renê Fraga é fundador do Google Discovery (GD) e editor-chefe do Eurisko. Profissional de marketing digital, com pós-graduação pela ESPM, acompanha o Google desde os anos 2000 e escreve há mais de duas décadas sobre tecnologia, produtos digitais e o ecossistema da empresa. Criador do Google Discovery em 2006, tornou-se referência na cobertura do Google no Brasil e foi colunista do TechTudo (Globo.com), compartilhando análises e conhecimento com um grande público.
Nenhum comentário