tecnología creativa Archives - TecnoFuturo24 https://tecnofuturo24.com/tag/tecnologia-creativa/ El futuro de la tecnología en un solo lugar. Tech News. Tue, 26 Nov 2024 22:00:18 +0000 en-US hourly 1 https://wordpress.org/?v=6.9.1 https://tecnofuturo24.com/wp-content/uploads/2024/01/cropped-cropped-TecnoFuturo24Box-32x32.jpeg tecnología creativa Archives - TecnoFuturo24 https://tecnofuturo24.com/tag/tecnologia-creativa/ 32 32 OpenAI enfrenta polémica tras la filtración de Sora, su generador de videos impulsado por inteligencia artificial https://tecnofuturo24.com/openai-enfrenta-polemica-tras-la-filtracion-de-sora-su-generador-de-videos-impulsado-por-inteligencia-artificial/ https://tecnofuturo24.com/openai-enfrenta-polemica-tras-la-filtracion-de-sora-su-generador-de-videos-impulsado-por-inteligencia-artificial/?noamp=mobile#respond Tue, 26 Nov 2024 22:00:18 +0000 https://tecnofuturo24.com/?p=9855 OpenAI, la empresa líder en inteligencia artificial conocida por desarrollar modelos avanzados…

The post OpenAI enfrenta polémica tras la filtración de Sora, su generador de videos impulsado por inteligencia artificial appeared first on TecnoFuturo24.

]]>
OpenAI, la empresa líder en inteligencia artificial conocida por desarrollar modelos avanzados como ChatGPT y DALL-E, se encuentra en el centro de una controversia luego de que un grupo autodenominado “Sora PR Puppets” filtrara acceso a su herramienta de generación de videos, Sora. Según reportes, el acceso no autorizado fue realizado en protesta contra las prácticas de OpenAI, a las que acusan de “lavado de imagen” y trato injusto hacia los artistas involucrados en el programa de pruebas tempranas de la herramienta.

Sora: Una herramienta revolucionaria con contratiempos

Desde su revelación inicial a principios de 2023, Sora ha sido promovido como una innovación en la generación de videos mediante IA. La herramienta promete crear videos de alta calidad, manteniendo estilos y personajes consistentes a partir de descripciones textuales. Sin embargo, Sora aún no se ha lanzado públicamente, ya que enfrenta desafíos técnicos y de escalabilidad.

Entre las dificultades iniciales reportadas, los videos generados por Sora requerían largos tiempos de procesamiento y mostraban inconsistencias en elementos clave, como estilos visuales y continuidad en los personajes. No obstante, una versión más reciente, apodada “Sora Turbo”, parece haber mejorado en velocidad y funcionalidad.

La filtración: Un acto de protesta

El 21 de noviembre, el grupo “Sora PR Puppets” publicó en la plataforma de desarrolladores Hugging Face un proyecto que daba acceso a Sora mediante un frontend personalizado. Según el grupo, utilizaron tokens de autenticación obtenidos, presumiblemente, del programa de acceso temprano de OpenAI. A través de esta herramienta, cualquier usuario podía generar videos de 10 segundos en resolución de hasta 1080p ingresando una breve descripción de texto.

En un comunicado adjunto al frontend, el grupo declaró que su acción buscaba exponer las presiones que OpenAI ejerce sobre los participantes del programa de acceso temprano, así como la falta de compensación justa por el trabajo creativo y técnico que realizan. “Cientos de artistas proporcionan trabajo no remunerado mediante pruebas, retroalimentación y experimentación para una empresa valorada en $150 mil millones”, escribió el grupo.

La respuesta de OpenAI

En menos de tres horas, OpenAI tomó medidas para revocar el acceso filtrado, dejando inactiva la herramienta en Hugging Face. Un portavoz de OpenAI confirmó que Sora sigue en etapa de “vista previa de investigación” y enfatizó que la participación en el programa es completamente voluntaria. “Cientos de artistas en nuestra alfa han moldeado el desarrollo de Sora, ayudando a priorizar nuevas características y medidas de seguridad”, afirmó el portavoz.

La empresa también destacó que ha ofrecido acceso gratuito a los participantes y ha apoyado a los artistas a través de subvenciones y eventos. Sin embargo, no se ofrecieron detalles específicos sobre qué constituye un uso “responsable” de Sora o qué información debe considerarse confidencial.

Un panorama complicado para OpenAI

La filtración de Sora ocurre en un momento crítico para OpenAI. La empresa ha enfrentado desafíos técnicos significativos en el desarrollo de la herramienta. Según Kevin Weil, director de producto de OpenAI, los problemas incluyen la necesidad de perfeccionar el modelo, resolver preocupaciones de seguridad y personalización, y escalar el poder computacional necesario.

Además, OpenAI ha perdido terreno frente a competidores en el sector de generación de videos por IA. Runway, por ejemplo, firmó un acuerdo con Lionsgate para entrenar un modelo personalizado utilizando el catálogo de películas del estudio, mientras que Stability AI ha incorporado a James Cameron, director de Avatar, como miembro de su junta directiva.

Por otro lado, OpenAI ha intentado establecer relaciones con cineastas y estudios de Hollywood, pero hasta ahora no ha anunciado colaboraciones concretas con grandes casas de producción. Aunque su presencia en eventos como el Festival de Cine de Cannes sugiere interés en este mercado, los desafíos técnicos y de percepción pública podrían complicar su avance.

¿Qué sigue para Sora y OpenAI?

A pesar de los contratiempos, Sora sigue siendo una herramienta con un potencial considerable en la industria creativa. OpenAI ha entrenado el modelo con millones de horas de clips de alta calidad que abarcan una amplia gama de estilos y temas, con el objetivo de mejorar la consistencia y la calidad de los videos generados.

Sin embargo, el éxito de Sora dependerá no solo de su desempeño técnico, sino también de la confianza que OpenAI pueda construir con los artistas y desarrolladores. Las acusaciones de trato injusto y control excesivo de las narrativas podrían afectar la percepción pública de la herramienta y su adopción en el mercado.

The post OpenAI enfrenta polémica tras la filtración de Sora, su generador de videos impulsado por inteligencia artificial appeared first on TecnoFuturo24.

]]>
https://tecnofuturo24.com/openai-enfrenta-polemica-tras-la-filtracion-de-sora-su-generador-de-videos-impulsado-por-inteligencia-artificial/feed/ 0
Nuevo Anuncio del iPad de Apple: Enfoque Renovado en los Creadores https://tecnofuturo24.com/nuevo-anuncio-del-ipad-de-apple-enfoque-renovado-en-los-creadores/ https://tecnofuturo24.com/nuevo-anuncio-del-ipad-de-apple-enfoque-renovado-en-los-creadores/?noamp=mobile#respond Wed, 29 May 2024 22:19:01 +0000 https://tecnofuturo24.com/?p=5098 El último anuncio del iPad de Apple, protagonizado por la actriz Sofia…

The post Nuevo Anuncio del iPad de Apple: Enfoque Renovado en los Creadores appeared first on TecnoFuturo24.

]]>
El último anuncio del iPad de Apple, protagonizado por la actriz Sofia Wylie, marca un retorno a los fundamentos creativos centrados en los usuarios. A diferencia de su predecesor, ‘Crush’, criticado por su enfoque insensible hacia los creadores, este nuevo spot, titulado ‘Mundos Creados en iPad’, se centra en la capacidad de los usuarios para dar vida a sus visiones artísticas con la ayuda del iPad Pro.

El anuncio presenta a Wylie interactuando con diferentes fondos animados, demostrando las posibilidades creativas del dispositivo. Esta narrativa más humanizada busca enmendar la controversia generada por ‘Crush’, donde se mostraban herramientas artísticas siendo destruidas para dar lugar al iPad Pro.

https://www.youtube.com/watch?v=aoimKc1CGh4

Innovadoramente, el iPad Pro no es el centro visual del anuncio principal, sino que se destaca su papel como herramienta de empoderamiento creativo. La inclusión de los nombres de los animadores, como Natalie Labarre, Jin & Jay, y Eric Lane, subraya la autenticidad del proceso creativo detrás de la producción.

En resumen, el nuevo enfoque de Apple en su publicidad del iPad Pro refleja un mayor compromiso con la comunidad creativa, buscando recuperar la confianza de los usuarios tras el revés de ‘Crush’. Con ‘Mundos Creados en iPad’, la marca demuestra su compromiso con el arte y la creatividad, reafirmando su posición como líder en tecnología innovadora y accesible para todos los usuarios.

The post Nuevo Anuncio del iPad de Apple: Enfoque Renovado en los Creadores appeared first on TecnoFuturo24.

]]>
https://tecnofuturo24.com/nuevo-anuncio-del-ipad-de-apple-enfoque-renovado-en-los-creadores/feed/ 0
Protege tu Arte del Impacto de la IA https://tecnofuturo24.com/protege-tu-arte-del-impacto-de-la-ia/ https://tecnofuturo24.com/protege-tu-arte-del-impacto-de-la-ia/?noamp=mobile#respond Wed, 07 Feb 2024 19:23:23 +0000 https://tecnofuturo24.com/?p=1859 Algunas empresas de IA ofrecen formas de excluir imágenes de ser utilizadas…

The post Protege tu Arte del Impacto de la IA appeared first on TecnoFuturo24.

]]>
Algunas empresas de IA ofrecen formas de excluir imágenes de ser utilizadas en datos de entrenamiento, mientras que herramientas como Glaze y Nightshade pueden interferir directamente con modelos de IA.

El arte generado por IA parece inevitable. Está en los videojuegos que juegas, en las películas que ves y ha inundado las plataformas de redes sociales. Incluso se ha utilizado para promocionar el hardware físico que los artistas reales, humanos, usan para crear pinturas digitales e ilustraciones, causando una inmensa frustración en aquellos que ya se sienten desplazados por la tecnología.

La naturaleza omnipresente de esto parece especialmente flagrante para los creadores que luchan por evitar que sus obras sean utilizadas, sin su consentimiento ni compensación, para mejorar aquello que amenaza con interrumpir sus carreras y medios de vida. Los conjuntos de datos que se utilizan para entrenar modelos de IA generativa a menudo contienen imágenes que se extraen indiscriminadamente de internet, y algunas herramientas generadoras de imágenes de IA permiten a los usuarios cargar imágenes de referencia que desean imitar. Muchos profesionales creativos necesitan promocionar su trabajo a través de redes sociales y portafolios en línea, por lo que simplemente sacar todo de línea no es una solución viable. Y la falta de claridad legal en torno a la tecnología de IA ha creado algo así como un entorno del Oeste Salvaje que es difícil de resistir. Difícil, pero no imposible.

Optar por no participar

Los modelos de IA generativa dependen de conjuntos de datos de entrenamiento, y las empresas detrás de ellos están motivadas para evitar restringir esos posibles conjuntos de datos. Por lo tanto, aunque a menudo permiten a los artistas excluir su trabajo, el proceso puede ser rudimentario y laborioso, especialmente si tienes un catálogo considerable de obras.

Por lo general, optar por no participar requiere enviar una solicitud a un proveedor de IA, ya sea a través de un formulario dedicado o directamente por correo electrónico, junto con copias y descripciones escritas de las imágenes que deseas proteger. Además, si has aceptado que terceros otorguen licencias a tus imágenes, los términos pueden incluir una licencia para el entrenamiento de IA. Vale la pena revisar los acuerdos de usuario de cualquier plataforma que aloje tu trabajo para verificar qué derechos tienen sobre él. Pero las políticas de diferentes herramientas de IA varían; aquí te mostramos cómo optar por no participar en algunas de las más populares.

OpenAI DALL-E

OpenAI comenzó a permitir que los creadores eliminen su trabajo de sus datos de entrenamiento junto con su modelo de IA generativa DALL-E 3 el pasado septiembre, y es uno de los procesos más fáciles de seguir. Los creadores de contenido o propietarios solo necesitan enviar un formulario a OpenAI para solicitar que el trabajo se excluya de los conjuntos de datos de entrenamiento futuros, incluyendo una copia de la imagen, una descripción de la misma y una casilla de verificación marcada que confirme que tienes los derechos sobre dicha imagen.

Desafortunadamente, tendrás que enviar un formulario separado por cada imagen que desees excluir de los conjuntos de datos de OpenAI, lo que podría significar miles de obras para algunas personas; OpenAI no ha revelado cuántos artistas han emprendido este proceso.

Adobe Firefly

Por supuesto, por cada empresa de IA que permite a los artistas eliminar sus obras de los datos de entrenamiento, muchas otras no publicitan abiertamente tener tal servicio. Y si están entrenando modelos en una plataforma que poseen, los usuarios de esa plataforma es posible que ni siquiera puedan optar por no participar. Ese es el caso del gigante del software creativo Adobe, que utiliza un modelo llamado Firefly en toda su suite Creative Cloud, incluido en la herramienta de relleno generativo de Photoshop.

Adobe proclama que Firefly es comercial y legalmente seguro porque está completamente entrenado en la plataforma de imágenes de stock de la compañía, Adobe Stock. Pero no hay medios para que los colaboradores de Adobe Stock excluyan su trabajo del entrenamiento de los modelos de IA de Adobe, lo que ha llevado a algunos usuarios existentes a criticar a la compañía por no buscar su permiso. Si no quieres que tu trabajo se use para mejorar Firefly, no puedes ponerlo en Adobe Stock, punto.

Meta

Los creativos que desean evitar el entrenamiento de los modelos de IA de Meta deberán sortear obstáculos similares. Meta está utilizando “información de sus productos y servicios” para entrenar sus modelos de IA generativa, por lo que cualquier cosa personal que subas, o hayas subido históricamente, a plataformas como Facebook, Instagram y Threads es justo para el entrenamiento de IA. Si no tienes una cuenta en ninguno de esos servicios, has evitado potencialmente alimentar su máquina de IA, pero eliminar cuentas existentes y/o no subir trabajos futuros a ellas es lo siguiente mejor.

Puedes enviar un formulario a Meta para solicitar que la empresa corrija o elimine la información personal que se está utilizando para entrenar sus modelos de IA generativa, pero solo si esa información ha sido proporcionada por un tercero. No te permitirá excluir, por ejemplo, arte que hayas estado exhibiendo voluntariamente en Instagram. Muchos artistas también han encontrado que es un proceso frustrante, criticando con qué frecuencia la herramienta no puede procesar las solicitudes. La artista conceptual Bethany Berg le dijo a Wired que el formulario de eliminación se sentía “como si fuera solo una maniobra de relaciones públicas falsa para que pareciera que realmente estaban intentando hacer algo”.

¿Qué pasa con Stability AI, Midjourney y otros?

Dos de las herramientas de IA generativa más populares, Midjourney y Stable Diffusion de Stability AI, eliminarán materiales que infrinjan los derechos de autor bajo la Ley de Derechos de Autor del Milenio Digital (DMCA). Pero esta información está enterrada en sus respectivas políticas de Términos de Uso, y los procesos son rudimentarios. Esto tampoco es estrictamente una herramienta de optar por no participar, y ninguna empresa proporciona un medio para excluir el trabajo de ser absorbido en futuros conjuntos de datos de entrenamiento.

Para ambos servicios, deberás enviar un correo electrónico directamente a las empresas. Midjourney puede ser contactado en [email protected]. Para Stability AI, envía tus solicitudes a [email protected] y [email protected]. Los términos de uso de Stability no especifican qué necesitarías proporcionar, pero la información requerida por Midjourney, y la mayoría de los avisos de infracción de derechos de autor DMCA en general, incluye una descripción de las obras originales, dónde se encuentra la imagen que infringe sobre ellas, tu información de contacto y una copia de tu firma.

Otros proveedores de IA más pequeños también pueden proporcionar un enfoque similar para eliminar datos que infringen los derechos de propiedad intelectual gracias a regulaciones como DCMA, con diversos grados de éxito; si no estás seguro, intenta contactar directamente al proveedor de IA.

¿Cómo más puedo proteger mi trabajo contra la IA generativa?

Con todo eso expuesto, está claro que las opciones de los artistas cuando tratan directamente con empresas de IA son bastante limitadas. Sin embargo, externamente, varias herramientas y servicios pueden otorgar a los creadores mejores defensas, o incluso ofensivas, al luchar contra esto. Las diversas herramientas funcionan de manera diferente, pero en general, ejecutan tu arte visual a través de procesos que confunden o bloquean el entrenamiento efectivo. De esa manera, incluso si tu trabajo se escanea para un modelo de IA, ese modelo (idealmente) no aprenderá a reproducirlo.

Glaze

Una de las herramientas anti-entrenamiento más notables es Glaze, un proyecto lanzado por un equipo de la Universidad de Chicago. La herramienta de uso gratuito funciona como una especie de capa, realizando cambios a nivel de píxeles en las imágenes que confunden el software de IA que intenta leerlas. Las personas reales no suelen poder ver estas alteraciones en imágenes altamente detalladas, por lo que hay poco impacto en la experiencia visual humana, pero los generadores de imágenes de IA que se alimentan con los mismos materiales lo reconocerán como algo completamente diferente, lo que significa que cualquiera que intente replicar su estilo de arte específico no podrá hacerlo.

Nightshade

Nightshade, del equipo detrás de Glaze, adopta un enfoque similar pero más extremo. Las imágenes que pasan por esta herramienta de camuflaje están destinadas a “envenenar” los modelos de IA generativa que se entrenan con ellas, saboteando las salidas para los comandos de texto. Si subes un lote de fotos de perros, por ejemplo, se supone que Nightshade engañará a los modelos para que vean algún otro objeto como automóviles, en lugar de simplemente confundir al modelo como lo hace Glaze.

Mist

Mist es una “herramienta de preprocesamiento” desarrollada por Psyker Group que, al igual que Glaze y Nightshade, también evita que las aplicaciones de IA generativa imiten de manera efectiva el estilo y las obras únicas de un creador. El enfoque de Mist se asemeja más al marcaje de agua de imágenes. Si un modelo de IA se entrena con “imágenes empañadas”, cualquier intento de imitarlas verá que la salida está completamente cubierta de distorsiones visuales que la hacen inadecuada para la mayoría de los propósitos y generalmente desagradable de ver.

The post Protege tu Arte del Impacto de la IA appeared first on TecnoFuturo24.

]]>
https://tecnofuturo24.com/protege-tu-arte-del-impacto-de-la-ia/feed/ 0