El generador de texto a video de OpenAI, Sora, estará disponible para el público más adelante este año, según Mira Murati, directora de tecnología de OpenAI, en una entrevista con el Wall Street Journal. Murati también reveló que Sora incorporará sonido en el futuro, lo que promete hacer las escenas aún más realistas.
Sora, capaz de generar escenas hiperrealistas basadas en indicaciones de texto, fue presentado por primera vez por OpenAI en febrero, inicialmente dirigido a artistas visuales, diseñadores y cineastas. Sin embargo, algunos videos generados por Sora ya se pueden encontrar en plataformas como X.
Además, OpenAI tiene planes de permitir a los usuarios editar el contenido de los videos generados por Sora, ya que las herramientas de IA no siempre producen imágenes precisas. Murati mencionó que están explorando formas de hacer que esta tecnología sea más accesible y útil para la edición y creación de contenido.
Aunque Murati no proporcionó detalles específicos sobre los datos utilizados para entrenar a Sora, confirmó que se basaron en datos públicos o con licencia, incluido contenido de Shutterstock. Sin embargo, los videos generados por Sora llevarán una marca de agua para distinguirlos de los reales.
Con preocupaciones crecientes sobre las herramientas de IA generativa y su potencial para crear desinformación, OpenAI pretende aplicar políticas similares a las de DALL-E, su modelo de IA de texto a imagen, evitando la producción de imágenes de figuras públicas.