YouTube ha lanzado una innovadora herramienta que permite a los creadores identificar el contenido generado por inteligencia artificial (IA) en sus videos. Esta medida sigue el anuncio previo de la plataforma de requerir a los creadores divulgar el material generado por IA en 2024. Aunque, al igual que otras plataformas, estas etiquetas se basan en el sistema de honor.
La nueva función de etiquetado requiere que los creadores autodefinan si sus videos contienen contenido sintético o alterado que parezca real. Esto incluye desde hacer que una persona real diga o haga algo que no hizo hasta mostrar situaciones realistas que nunca ocurrieron. Por ejemplo, mostrar un tornado falso acercándose a un pueblo real o utilizar voces deepfake para narrar un video con una persona real. Sin embargo, ciertos elementos como filtros de belleza o efectos especiales no requerirán esta divulgación.
En noviembre, YouTube detalló su política de contenido generado por IA, estableciendo reglas estrictas para proteger a los sellos discográficos y artistas, y pautas más flexibles para otros creadores. Esta política también implica que los creadores deben divulgar material generado por IA, aunque hasta ahora no se había especificado cómo. Además, YouTube advierte que, si bien están invirtiendo en herramientas para detectar este tipo de contenido, el software de detección de IA históricamente ha sido altamente inexacto.
La introducción de esta herramienta busca fomentar la transparencia en la plataforma, aunque su efectividad dependerá en gran medida de la honestidad de los creadores. YouTube también contempla la posibilidad de agregar etiquetas de IA a los videos de manera automática, especialmente en casos donde el contenido sintético o alterado pueda causar confusión o engaño. Además, se implementarán etiquetas más visibles en videos sobre temas sensibles como salud, elecciones y finanzas.