Algunas empresas de IA ofrecen formas de excluir imágenes de ser utilizadas en datos de entrenamiento, mientras que herramientas como Glaze y Nightshade pueden interferir directamente con modelos de IA.
El arte generado por IA parece inevitable. Está en los videojuegos que juegas, en las películas que ves y ha inundado las plataformas de redes sociales. Incluso se ha utilizado para promocionar el hardware físico que los artistas reales, humanos, usan para crear pinturas digitales e ilustraciones, causando una inmensa frustración en aquellos que ya se sienten desplazados por la tecnología.
La naturaleza omnipresente de esto parece especialmente flagrante para los creadores que luchan por evitar que sus obras sean utilizadas, sin su consentimiento ni compensación, para mejorar aquello que amenaza con interrumpir sus carreras y medios de vida. Los conjuntos de datos que se utilizan para entrenar modelos de IA generativa a menudo contienen imágenes que se extraen indiscriminadamente de internet, y algunas herramientas generadoras de imágenes de IA permiten a los usuarios cargar imágenes de referencia que desean imitar. Muchos profesionales creativos necesitan promocionar su trabajo a través de redes sociales y portafolios en línea, por lo que simplemente sacar todo de línea no es una solución viable. Y la falta de claridad legal en torno a la tecnología de IA ha creado algo así como un entorno del Oeste Salvaje que es difícil de resistir. Difícil, pero no imposible.
Optar por no participar
Los modelos de IA generativa dependen de conjuntos de datos de entrenamiento, y las empresas detrás de ellos están motivadas para evitar restringir esos posibles conjuntos de datos. Por lo tanto, aunque a menudo permiten a los artistas excluir su trabajo, el proceso puede ser rudimentario y laborioso, especialmente si tienes un catálogo considerable de obras.
Por lo general, optar por no participar requiere enviar una solicitud a un proveedor de IA, ya sea a través de un formulario dedicado o directamente por correo electrónico, junto con copias y descripciones escritas de las imágenes que deseas proteger. Además, si has aceptado que terceros otorguen licencias a tus imágenes, los términos pueden incluir una licencia para el entrenamiento de IA. Vale la pena revisar los acuerdos de usuario de cualquier plataforma que aloje tu trabajo para verificar qué derechos tienen sobre él. Pero las políticas de diferentes herramientas de IA varían; aquí te mostramos cómo optar por no participar en algunas de las más populares.
OpenAI DALL-E
OpenAI comenzó a permitir que los creadores eliminen su trabajo de sus datos de entrenamiento junto con su modelo de IA generativa DALL-E 3 el pasado septiembre, y es uno de los procesos más fáciles de seguir. Los creadores de contenido o propietarios solo necesitan enviar un formulario a OpenAI para solicitar que el trabajo se excluya de los conjuntos de datos de entrenamiento futuros, incluyendo una copia de la imagen, una descripción de la misma y una casilla de verificación marcada que confirme que tienes los derechos sobre dicha imagen.
Desafortunadamente, tendrás que enviar un formulario separado por cada imagen que desees excluir de los conjuntos de datos de OpenAI, lo que podría significar miles de obras para algunas personas; OpenAI no ha revelado cuántos artistas han emprendido este proceso.
Adobe Firefly
Por supuesto, por cada empresa de IA que permite a los artistas eliminar sus obras de los datos de entrenamiento, muchas otras no publicitan abiertamente tener tal servicio. Y si están entrenando modelos en una plataforma que poseen, los usuarios de esa plataforma es posible que ni siquiera puedan optar por no participar. Ese es el caso del gigante del software creativo Adobe, que utiliza un modelo llamado Firefly en toda su suite Creative Cloud, incluido en la herramienta de relleno generativo de Photoshop.
Adobe proclama que Firefly es comercial y legalmente seguro porque está completamente entrenado en la plataforma de imágenes de stock de la compañía, Adobe Stock. Pero no hay medios para que los colaboradores de Adobe Stock excluyan su trabajo del entrenamiento de los modelos de IA de Adobe, lo que ha llevado a algunos usuarios existentes a criticar a la compañía por no buscar su permiso. Si no quieres que tu trabajo se use para mejorar Firefly, no puedes ponerlo en Adobe Stock, punto.
Meta
Los creativos que desean evitar el entrenamiento de los modelos de IA de Meta deberán sortear obstáculos similares. Meta está utilizando “información de sus productos y servicios” para entrenar sus modelos de IA generativa, por lo que cualquier cosa personal que subas, o hayas subido históricamente, a plataformas como Facebook, Instagram y Threads es justo para el entrenamiento de IA. Si no tienes una cuenta en ninguno de esos servicios, has evitado potencialmente alimentar su máquina de IA, pero eliminar cuentas existentes y/o no subir trabajos futuros a ellas es lo siguiente mejor.
Puedes enviar un formulario a Meta para solicitar que la empresa corrija o elimine la información personal que se está utilizando para entrenar sus modelos de IA generativa, pero solo si esa información ha sido proporcionada por un tercero. No te permitirá excluir, por ejemplo, arte que hayas estado exhibiendo voluntariamente en Instagram. Muchos artistas también han encontrado que es un proceso frustrante, criticando con qué frecuencia la herramienta no puede procesar las solicitudes. La artista conceptual Bethany Berg le dijo a Wired que el formulario de eliminación se sentía “como si fuera solo una maniobra de relaciones públicas falsa para que pareciera que realmente estaban intentando hacer algo”.
¿Qué pasa con Stability AI, Midjourney y otros?
Dos de las herramientas de IA generativa más populares, Midjourney y Stable Diffusion de Stability AI, eliminarán materiales que infrinjan los derechos de autor bajo la Ley de Derechos de Autor del Milenio Digital (DMCA). Pero esta información está enterrada en sus respectivas políticas de Términos de Uso, y los procesos son rudimentarios. Esto tampoco es estrictamente una herramienta de optar por no participar, y ninguna empresa proporciona un medio para excluir el trabajo de ser absorbido en futuros conjuntos de datos de entrenamiento.
Para ambos servicios, deberás enviar un correo electrónico directamente a las empresas. Midjourney puede ser contactado en [email protected]. Para Stability AI, envía tus solicitudes a [email protected] y [email protected]. Los términos de uso de Stability no especifican qué necesitarías proporcionar, pero la información requerida por Midjourney, y la mayoría de los avisos de infracción de derechos de autor DMCA en general, incluye una descripción de las obras originales, dónde se encuentra la imagen que infringe sobre ellas, tu información de contacto y una copia de tu firma.
Otros proveedores de IA más pequeños también pueden proporcionar un enfoque similar para eliminar datos que infringen los derechos de propiedad intelectual gracias a regulaciones como DCMA, con diversos grados de éxito; si no estás seguro, intenta contactar directamente al proveedor de IA.
¿Cómo más puedo proteger mi trabajo contra la IA generativa?
Con todo eso expuesto, está claro que las opciones de los artistas cuando tratan directamente con empresas de IA son bastante limitadas. Sin embargo, externamente, varias herramientas y servicios pueden otorgar a los creadores mejores defensas, o incluso ofensivas, al luchar contra esto. Las diversas herramientas funcionan de manera diferente, pero en general, ejecutan tu arte visual a través de procesos que confunden o bloquean el entrenamiento efectivo. De esa manera, incluso si tu trabajo se escanea para un modelo de IA, ese modelo (idealmente) no aprenderá a reproducirlo.
Glaze
Una de las herramientas anti-entrenamiento más notables es Glaze, un proyecto lanzado por un equipo de la Universidad de Chicago. La herramienta de uso gratuito funciona como una especie de capa, realizando cambios a nivel de píxeles en las imágenes que confunden el software de IA que intenta leerlas. Las personas reales no suelen poder ver estas alteraciones en imágenes altamente detalladas, por lo que hay poco impacto en la experiencia visual humana, pero los generadores de imágenes de IA que se alimentan con los mismos materiales lo reconocerán como algo completamente diferente, lo que significa que cualquiera que intente replicar su estilo de arte específico no podrá hacerlo.
Nightshade
Nightshade, del equipo detrás de Glaze, adopta un enfoque similar pero más extremo. Las imágenes que pasan por esta herramienta de camuflaje están destinadas a “envenenar” los modelos de IA generativa que se entrenan con ellas, saboteando las salidas para los comandos de texto. Si subes un lote de fotos de perros, por ejemplo, se supone que Nightshade engañará a los modelos para que vean algún otro objeto como automóviles, en lugar de simplemente confundir al modelo como lo hace Glaze.
Mist
Mist es una “herramienta de preprocesamiento” desarrollada por Psyker Group que, al igual que Glaze y Nightshade, también evita que las aplicaciones de IA generativa imiten de manera efectiva el estilo y las obras únicas de un creador. El enfoque de Mist se asemeja más al marcaje de agua de imágenes. Si un modelo de IA se entrena con “imágenes empañadas”, cualquier intento de imitarlas verá que la salida está completamente cubierta de distorsiones visuales que la hacen inadecuada para la mayoría de los propósitos y generalmente desagradable de ver.