En un movimiento significativo, Meta ha anunciado que comenzará a marcar con marcas de agua las fotos generadas por inteligencia artificial (IA) en plataformas como Instagram, Threads y Facebook. Esta iniciativa llega en un momento crucial, ya que nos adentramos en una temporada electoral global. Además, la empresa tomará medidas enérgicas contra aquellos usuarios que no revelen si un video o una pieza de audio realista fue creada con IA.

Nick Clegg, presidente de asuntos globales de Meta, destacó la importancia de estas acciones para fortalecer la transparencia en la industria tecnológica. En una entrevista, Clegg mencionó que la dificultad para distinguir entre medios generados por IA y la realidad ha llevado a la Casa Blanca a presionar a las empresas para que implementen medidas como marcas de agua en contenido generado por IA.

Meta no solo implementará marcas de agua como “Imaginado con IA” en imágenes creadas con su propio generador Imagine AI, sino que también extenderá esta práctica a fotos generadas por IA utilizando herramientas de otras empresas como Google, OpenAI, Microsoft, Adobe, Midjourney y Shutterstock.

Clegg reconoció que la industria aún enfrenta desafíos en la identificación de videos y audios generados por IA. Sin embargo, Meta está en alerta máxima y está trabajando en herramientas para detectar medios sintéticos, incluso si se altera el metadato para ocultar el papel de la IA en su creación.

Además, Meta está colaborando con grupos como Partnership on AI para desarrollar iniciativas que promuevan la autenticidad del contenido. Recientemente, empresas como Adobe y Google han lanzado sistemas como Content Credentials y SynthID para abordar este desafío.

En cuanto a las consecuencias para aquellos que no revelen el uso de IA en sus publicaciones, Clegg fue claro: Meta impondrá una serie de penalizaciones que van desde advertencias hasta la eliminación del contenido ofensivo.

A pesar de la preocupación por la difusión de contenido generado por IA, Clegg minimizó las posibilidades de que este fenómeno afecte significativamente la plataforma de Meta durante el año electoral.

Finalmente, Meta está explorando el uso de modelos de lenguaje grandes (LLM) entrenados en sus Normas de la Comunidad como un eficiente “mecanismo de triaje” para sus moderadores humanos, asegurando así una revisión precisa de contenido problemático.

¡Sigue atento a tecnofuturo24.com para más actualizaciones sobre este importante desarrollo en la lucha contra la falsificación de IA!

Leave a Reply

Your email address will not be published. Required fields are marked *

You May Also Like

Descubrimiento Sorprendente: Apple Revela Conector XL Lightning Oculto en Auricular Vision Pro

Una revelación impactante sobre la última innovación de Apple en tecnología de…

Las nuevas reglas de competencia de la UE están entrando en vigor: así es como los gigantes tecnológicos están respondiendo

El plazo para el cumplimiento de la Ley de Mercados Digitales es…

Microsoft Prueba Anuncios en el Menú de Inicio de Windows 11: ¿Cómo Afectará a los Usuarios?

Microsoft ha iniciado pruebas de anuncios en el menú de inicio de…

Lenovo presenta dos nuevas laptops con tecnología Qualcomm para este verano

Lenovo ha revelado la incorporación de dos nuevos modelos de laptops con…

PlayStation Plus Anuncia los Juegos Gratuitos para PS4 y PS5 en Abril de 2025

PlayStation Plus Anuncia los Juegos Gratuitos para PS4 y PS5 en Abril…

Google finaliza experimento de notas

Google está poniendo fin a un experimento de varios meses que permitía…

¡Alerta de seguridad! Hackers comprometen 15,000 cuentas de Roku y las ponen en venta

Descubre cómo los hackers lograron acceder a miles de cuentas de Roku…

Samsung Revoluciona la Reparación Casera de Televisores: Guías y Piezas Disponibles para DIY

Samsung ha llevado su compromiso con la autonomía del usuario a un…

Fusion X1: El Smartphone Seguro para Niños que Bloquea Contenido Perjudicial Automáticamente

El Fusion X1 es el primer teléfono inteligente diseñado específicamente para niños…