En un movimiento significativo, Meta ha anunciado que comenzará a marcar con marcas de agua las fotos generadas por inteligencia artificial (IA) en plataformas como Instagram, Threads y Facebook. Esta iniciativa llega en un momento crucial, ya que nos adentramos en una temporada electoral global. Además, la empresa tomará medidas enérgicas contra aquellos usuarios que no revelen si un video o una pieza de audio realista fue creada con IA.
Nick Clegg, presidente de asuntos globales de Meta, destacó la importancia de estas acciones para fortalecer la transparencia en la industria tecnológica. En una entrevista, Clegg mencionó que la dificultad para distinguir entre medios generados por IA y la realidad ha llevado a la Casa Blanca a presionar a las empresas para que implementen medidas como marcas de agua en contenido generado por IA.
Meta no solo implementará marcas de agua como “Imaginado con IA” en imágenes creadas con su propio generador Imagine AI, sino que también extenderá esta práctica a fotos generadas por IA utilizando herramientas de otras empresas como Google, OpenAI, Microsoft, Adobe, Midjourney y Shutterstock.
Clegg reconoció que la industria aún enfrenta desafíos en la identificación de videos y audios generados por IA. Sin embargo, Meta está en alerta máxima y está trabajando en herramientas para detectar medios sintéticos, incluso si se altera el metadato para ocultar el papel de la IA en su creación.
Además, Meta está colaborando con grupos como Partnership on AI para desarrollar iniciativas que promuevan la autenticidad del contenido. Recientemente, empresas como Adobe y Google han lanzado sistemas como Content Credentials y SynthID para abordar este desafío.
En cuanto a las consecuencias para aquellos que no revelen el uso de IA en sus publicaciones, Clegg fue claro: Meta impondrá una serie de penalizaciones que van desde advertencias hasta la eliminación del contenido ofensivo.
A pesar de la preocupación por la difusión de contenido generado por IA, Clegg minimizó las posibilidades de que este fenómeno afecte significativamente la plataforma de Meta durante el año electoral.
Finalmente, Meta está explorando el uso de modelos de lenguaje grandes (LLM) entrenados en sus Normas de la Comunidad como un eficiente “mecanismo de triaje” para sus moderadores humanos, asegurando así una revisión precisa de contenido problemático.
¡Sigue atento a tecnofuturo24.com para más actualizaciones sobre este importante desarrollo en la lucha contra la falsificación de IA!