En un movimiento significativo, Meta ha anunciado que comenzará a marcar con marcas de agua las fotos generadas por inteligencia artificial (IA) en plataformas como Instagram, Threads y Facebook. Esta iniciativa llega en un momento crucial, ya que nos adentramos en una temporada electoral global. Además, la empresa tomará medidas enérgicas contra aquellos usuarios que no revelen si un video o una pieza de audio realista fue creada con IA.

Nick Clegg, presidente de asuntos globales de Meta, destacó la importancia de estas acciones para fortalecer la transparencia en la industria tecnológica. En una entrevista, Clegg mencionó que la dificultad para distinguir entre medios generados por IA y la realidad ha llevado a la Casa Blanca a presionar a las empresas para que implementen medidas como marcas de agua en contenido generado por IA.

Meta no solo implementará marcas de agua como “Imaginado con IA” en imágenes creadas con su propio generador Imagine AI, sino que también extenderá esta práctica a fotos generadas por IA utilizando herramientas de otras empresas como Google, OpenAI, Microsoft, Adobe, Midjourney y Shutterstock.

Clegg reconoció que la industria aún enfrenta desafíos en la identificación de videos y audios generados por IA. Sin embargo, Meta está en alerta máxima y está trabajando en herramientas para detectar medios sintéticos, incluso si se altera el metadato para ocultar el papel de la IA en su creación.

Además, Meta está colaborando con grupos como Partnership on AI para desarrollar iniciativas que promuevan la autenticidad del contenido. Recientemente, empresas como Adobe y Google han lanzado sistemas como Content Credentials y SynthID para abordar este desafío.

En cuanto a las consecuencias para aquellos que no revelen el uso de IA en sus publicaciones, Clegg fue claro: Meta impondrá una serie de penalizaciones que van desde advertencias hasta la eliminación del contenido ofensivo.

A pesar de la preocupación por la difusión de contenido generado por IA, Clegg minimizó las posibilidades de que este fenómeno afecte significativamente la plataforma de Meta durante el año electoral.

Finalmente, Meta está explorando el uso de modelos de lenguaje grandes (LLM) entrenados en sus Normas de la Comunidad como un eficiente “mecanismo de triaje” para sus moderadores humanos, asegurando así una revisión precisa de contenido problemático.

¡Sigue atento a tecnofuturo24.com para más actualizaciones sobre este importante desarrollo en la lucha contra la falsificación de IA!

Leave a Reply

Your email address will not be published. Required fields are marked *

You May Also Like

La cámara del iPhone 16: Confusión y personalización en la era de la fotografía móvil

El reciente lanzamiento del iPhone 16 ha traído consigo una serie de…

Sony lanza el control Astro Bot para PS5

Sony ha anunciado el lanzamiento de una edición limitada del control DualSense…

El Juez James Donato Actúa Contra el Monopolio de Google en la Tienda de Aplicaciones

El juez James Donato ha dejado en claro que Google enfrentará cambios…

Se filtran los renders del Google Pixel 9A: un diseño sin visor sorprende a los fanáticos

Los renders del Google Pixel 9A han sido filtrados, revelando un diseño…

Revisión del Humane AI Pin: ¿Una alternativa real al smartphone?

Descubre por qué el Humane AI Pin, con un precio de $699…

Festival de Bocinazos Nocturno en el Estacionamiento de Robotaxis de Waymo Despierta a San Francisco

Waymo enfrenta críticas por el ruido de bocinazos de sus robotaxis en…

T-Mobile revoluciona los planes de telefonía con su nuevo programa de recompensas VIP

Descubre el nuevo programa de T-Mobile que ofrece descuentos exclusivos gestionados a…

Bill Gates Anuncia su Nuevo Libro de Memorias: “Código Fuente: Mis Comienzos”

Bill Gates revela detalles íntimos de su vida en su próximo libro…

El próximo AirTag de Apple podría llegar en 2025

El primer nuevo AirTag de Apple en tres años contará con un…

Muchas organizaciones no están preparadas para las amenazas de ciberseguridad de la IA.

Cómo las Organizaciones Enfrentan las Amenazas de Ciberseguridad Impulsadas por la IA…