En un movimiento significativo, Meta ha anunciado que comenzará a marcar con marcas de agua las fotos generadas por inteligencia artificial (IA) en plataformas como Instagram, Threads y Facebook. Esta iniciativa llega en un momento crucial, ya que nos adentramos en una temporada electoral global. Además, la empresa tomará medidas enérgicas contra aquellos usuarios que no revelen si un video o una pieza de audio realista fue creada con IA.

Nick Clegg, presidente de asuntos globales de Meta, destacó la importancia de estas acciones para fortalecer la transparencia en la industria tecnológica. En una entrevista, Clegg mencionó que la dificultad para distinguir entre medios generados por IA y la realidad ha llevado a la Casa Blanca a presionar a las empresas para que implementen medidas como marcas de agua en contenido generado por IA.

Meta no solo implementará marcas de agua como “Imaginado con IA” en imágenes creadas con su propio generador Imagine AI, sino que también extenderá esta práctica a fotos generadas por IA utilizando herramientas de otras empresas como Google, OpenAI, Microsoft, Adobe, Midjourney y Shutterstock.

Clegg reconoció que la industria aún enfrenta desafíos en la identificación de videos y audios generados por IA. Sin embargo, Meta está en alerta máxima y está trabajando en herramientas para detectar medios sintéticos, incluso si se altera el metadato para ocultar el papel de la IA en su creación.

Además, Meta está colaborando con grupos como Partnership on AI para desarrollar iniciativas que promuevan la autenticidad del contenido. Recientemente, empresas como Adobe y Google han lanzado sistemas como Content Credentials y SynthID para abordar este desafío.

En cuanto a las consecuencias para aquellos que no revelen el uso de IA en sus publicaciones, Clegg fue claro: Meta impondrá una serie de penalizaciones que van desde advertencias hasta la eliminación del contenido ofensivo.

A pesar de la preocupación por la difusión de contenido generado por IA, Clegg minimizó las posibilidades de que este fenómeno afecte significativamente la plataforma de Meta durante el año electoral.

Finalmente, Meta está explorando el uso de modelos de lenguaje grandes (LLM) entrenados en sus Normas de la Comunidad como un eficiente “mecanismo de triaje” para sus moderadores humanos, asegurando así una revisión precisa de contenido problemático.

¡Sigue atento a tecnofuturo24.com para más actualizaciones sobre este importante desarrollo en la lucha contra la falsificación de IA!

Leave a Reply

Your email address will not be published. Required fields are marked *

You May Also Like

Bose desafía a los AirPods 4

Bose ha lanzado hoy una nueva opción de auriculares, los QuietComfort Earbuds…

Google Lanza Nuevos Precios del Pixel 9 Pro para Competir con Samsung

Google, la gigante tecnológica conocida por su motor de búsqueda y una…

Asistente de IA de Ikea: ¿Inspiración en Diseño o Desafíos de Implementación?

Los viajes a Ikea pueden ser una experiencia abrumadora sin un plan…

Llega la secuela de Golden Idol

La tan esperada secuela del querido juego de misterio Golden Idol se…

Meta y TikTok Desafían Tarifas de la UE por Moderación de Contenido

Las gigantes tecnológicas Meta y TikTok están en el ojo de la…

Cybertruck de Tesla: Desafíos que Contradicen las Expectativas

Tesla, al presentar su Cybertruck como una potente máquina todoterreno y de…

Cómo la compra de una agencia de K-pop está llevando a la caída del multimillonario tecnológico más rico de Corea

Kim Beom-su, fundador de Kakao Corp., enfrenta una batalla legal significativa tras…

La PS5 Pro de Sony

El anuncio de la PS5 Pro no sorprendió a muchos, pero lo…

Samsung Galaxy Ring: Análisis Completo del Nuevo Anillo Inteligente

El Samsung Galaxy Ring marca una nueva era en el mundo de…

Estados Unidos impone restricciones de visa a personas vinculadas con empresas de spyware

El Departamento de Estado de EE. UU. anuncia medidas para impedir la…