La semana pasada, la startup de inteligencia artificial Luma lanzó una serie de videos utilizando su nueva herramienta generadora de videos llamada Dream Machine. Según la empresa, este modelo transformador es altamente escalable y eficiente, entrenado directamente en videos.
Sin embargo, el tráiler generado por Dream Machine para Monster Camp, una historia animada sobre criaturas peludas en un campamento de verano, mostró a un Mike Wazowski ligeramente distorsionado pero aún reconocible de Monsters, Inc. de Pixar. Esta similitud ha suscitado interrogantes sobre si la IA fue instruida para animar al estilo de Pixar o si está entrenada con material que incluye trabajos de Disney.
Este incidente subraya preocupaciones sobre la transparencia en modelos de IA como Dream Machine, que se une a otras herramientas destacadas recientemente como OpenAI’s Sora, Google’s VideoPoet y Veo.
Luma ha posicionado a Dream Machine como el futuro del cine, capaz de crear “disparos de alta calidad y realistas” con solo escribir comandos. Esta promoción ha sido bien recibida por entusiastas de la tecnología que elogian su innovación en videos que muestran desde carreras de autos hasta cortos de ciencia ficción.
Actualmente, Luma invita al público a experimentar gratuitamente con Dream Machine, ofreciendo también suscripciones “Pro” y otras opciones de pago por características adicionales. A pesar de nuestros intentos, no obtuvimos respuesta de Luma sobre el origen de las imágenes utilizadas para entrenar Dream Machine.
Disney, por su parte, no ha comentado públicamente sobre las actividades de Luma hasta el momento. En un contexto donde la transparencia en los datos utilizados por herramientas de IA es crucial, casos como el de Monster Camp plantean serias dudas sobre la originalidad en el ecosistema de la IA generativa.
Este episodio destaca la creciente necesidad de claridad y ética en el desarrollo de herramientas de IA como Dream Machine, donde la frontera entre la innovación y el plagio es cada vez más delgada.