Infinix Note 12
Root NationNoticiasMeta mostró IA para crear videos basados ​​en la descripción

Meta mostró IA para crear videos basados ​​en la descripción

-

Ayudar al sitio
SUBSCRIBE TO GOOGLE NEWS

Los generadores de texto a imagen de inteligencia artificial (IA) han estado en los titulares en los últimos meses, pero los investigadores ya han pasado a la siguiente frontera: los generadores de texto a video impulsados ​​por IA. Los investigadores de Meta han presentado públicamente un nuevo generador de este tipo, informa The Verge.

El equipo de ingeniería de aprendizaje automático de Meta ha introducido un nuevo sistema llamado Make-A-Video. Este modelo de IA permite a los usuarios ingresar una descripción aproximada de la escena y genera un video corto que coincide con su texto. Los videos son claramente artificiales, con objetos borrosos y animaciones distorsionadas, pero siguen siendo un logro significativo en el campo de la generación de contenido de inteligencia artificial.

Hacer un video: IA

En una publicación de Facebook, el CEO de Meta, Mark Zuckerberg, describió el trabajo como un «progreso asombroso» y agregó: «Crear videos es mucho más difícil que fotos porque, además de generar cada píxel correctamente, el sistema también tiene que predecir cómo cambiarán». tiempo.»

Hacer un video: IA

Los clips no duran más de cinco segundos y no contienen sonido, pero cubren una gran variedad de pistas. Si bien está claro que el video es generado por computadora, la calidad de tales modelos de IA mejorará rápidamente en un futuro cercano. En solo unos años, los generadores de imágenes de IA han pasado de crear imágenes casi incomprensibles a contenido fotorrealista. Y aunque el progreso en video puede ser más lento dada la complejidad casi ilimitada del tema, el premio por la generación de video sin interrupciones motivará a muchas organizaciones y empresas a invertir recursos significativos en el proyecto.

La compañía dice que planea lanzar una versión de demostración del sistema, pero no ha dicho cuándo ni cómo se implementará. En un artículo que describe el modelo, los investigadores de Meta señalan que Make-A-Video está entrenado en pares de imágenes y subtítulos, así como en secuencias de video sin etiquetar.

El contenido de capacitación se derivó de dos conjuntos de datos, WebVid-10M y HD-VILA-100M, que juntos contienen millones de videos y abarcan cientos de miles de horas de secuencias de video. Por cierto, esto incluye material de archivo.

Los investigadores señalan que el modelo tiene muchas limitaciones técnicas, además de cuadros borrosos y animaciones dispersas. Make-A-Video genera 16 fotogramas de video con una resolución de 64 × 64 píxeles, que luego se redimensionan utilizando un modelo de IA separado a 768 × 768 píxeles.

Aquí te dejamos una lista de noticias que también vas a querer leer:

Donate us
Sourcetheverge

Otros artículos

Subscribe
Notify of
guest

0 Comments
Inline Feedbacks
View all comments