Varios fotógrafos han levantado quejas contra Meta por agregar de manera errónea la etiqueta “Hecho por IA” a fotografías auténticas que ellos han tomado o mejorado con herramientas de edición, según informes de TechCrunch. Esta controversia reciente incluye casos como el de Pete Souza, conocido fotógrafo de la Casa Blanca, cuya foto de un partido de baloncesto fue etiquetada como generada por IA por Meta. Otro ejemplo problemático involucra una imagen en Instagram de los Kolkata Knight Riders celebrando su victoria en la Premier League de Cricket de la India.

Los fotógrafos afectados expresan frustración porque estas etiquetas solo aparecen en dispositivos móviles y no en la web, y reportan dificultades para removerlas, incluso después de usar herramientas comunes de edición como el recorte en Adobe y la conversión a JPEG.

Además, se ha observado que Meta etiqueta incorrectamente como generadas por IA aquellas fotos en las que se ha utilizado herramientas de relleno generativo, como Adobe’s Generative Fill, para eliminar objetos mínimos. Este problema ha sido documentado por PetaPixel, quienes descubrieron que Meta añade la etiqueta en Instagram pero no al reeditar y guardar las imágenes en Photoshop.

El debate sobre la precisión de estas etiquetas ha llevado a la comunidad fotográfica a cuestionar la integridad del término “Hecho por IA”, argumentando que su uso indiscriminado podría desvirtuar su significado. El fotógrafo Noah Kalina expresó en Threads su preocupación de que si incluso las fotos retocadas reciben esta etiqueta, la distinción entre realidad y manipulación podría perderse.

En respuesta a estas críticas, Meta ha indicado que está evaluando su proceso de etiquetado para reflejar de manera más precisa el uso de IA en las imágenes. La compañía ha mencionado que se apoya en estándares de la industria y está colaborando con otras empresas tecnológicas para mejorar estos sistemas de identificación.

Meta anunció en febrero que comenzaría a aplicar estas etiquetas a fotos cargadas en Facebook, Instagram y Threads antes de las elecciones de este año, buscando transparentar el origen de las imágenes generadas por IA. Empresas como Google, OpenAI, Microsoft, Adobe, Midjourney y Shutterstock están trabajando en la implementación de metadatos que indiquen el uso de herramientas de IA en sus productos, una iniciativa que busca facilitar la identificación precisa de imágenes manipuladas digitalmente.

Leave a Reply

Your email address will not be published. Required fields are marked *

You May Also Like

Android 16 Trae un Rediseño Moderno para el Control de Volumen y Panel de Sonido

La nueva versión de Android 16 está en camino, y con ella…

La mejor manera de ver los Juegos Olímpicos 2024 es en TikTok

Cada noche en horario estelar, NBC transmite los momentos destacados del día…

Google lanza nueva función de búsqueda “web” y opción para desactivar la IA

Google ha introducido una emocionante novedad en su motor de búsqueda: la…

¿Están las TVs Transparentes a Punto de Convertirse en la Última Tendencia Tecnológica?

Con un toque de ciencia ficción y grandes expectativas, tu próximo televisor…

Por qué los robots no pueden marcar la casilla ‘No soy un robot’: el desafío de los sistemas de inteligencia artificial

En el contexto actual de una era digital avanzada, donde la inteligencia…

El MacBook Air M3 de Apple tiene un descuento de hasta $300: Una oferta imperdible

La oferta más atractiva del año en portátiles MacBook Air llega con…

Cybertruck de Tesla: Desafíos que Contradicen las Expectativas

Tesla, al presentar su Cybertruck como una potente máquina todoterreno y de…

Nueva Ley del Reino Unido para Multar a Grandes Empresas Tecnológicas

El Reino Unido ha dado un paso crucial en la regulación de…

Apple Revoluciona el Futuro con el iPhone 17 Pro: Rumores y Especulaciones

El mundo de la tecnología está lleno de expectativas ante los rumores…

Garmin cambia su aplicación con la incorporación de IA y una suscripción premium

a compañía lanza Garmin Connect Plus con inteligencia artificial y nuevas funciones…