Manipulación de imágenes Archives - TecnoFuturo24 https://tecnofuturo24.com/tag/manipulacion-de-imagenes/ El futuro de la tecnología en un solo lugar. Tech News. Wed, 21 Aug 2024 23:29:12 +0000 en-US hourly 1 https://wordpress.org/?v=6.9.1 https://tecnofuturo24.com/wp-content/uploads/2024/01/cropped-cropped-TecnoFuturo24Box-32x32.jpeg Manipulación de imágenes Archives - TecnoFuturo24 https://tecnofuturo24.com/tag/manipulacion-de-imagenes/ 32 32 Google Reimagine: La IA que Añade Desastres a Fotos https://tecnofuturo24.com/google-reimagine-la-ia-que-anade-desastres-a-fotos/ https://tecnofuturo24.com/google-reimagine-la-ia-que-anade-desastres-a-fotos/?noamp=mobile#respond Wed, 21 Aug 2024 23:29:11 +0000 https://tecnofuturo24.com/?p=7677 Google ha lanzado una nueva herramienta de edición de fotos con IA…

The post Google Reimagine: La IA que Añade Desastres a Fotos appeared first on TecnoFuturo24.

]]>
Google ha lanzado una nueva herramienta de edición de fotos con IA en la serie Pixel 9, llamada “Reimagine”. Esta innovadora función permite a los usuarios agregar elementos a sus fotos simplemente mediante comandos de texto. Aunque la herramienta puede crear imágenes llamativas, su capacidad para generar contenido perturbador y las débiles salvaguardas plantean preocupaciones significativas.

Reimagine es una extensión avanzada de las herramientas de Magic Editor del año pasado, que permitían ajustes básicos como cambiar el cielo o borrar partes de una imagen. En contraste, Reimagine ofrece una funcionalidad mucho más amplia, permitiendo a los usuarios seleccionar cualquier objeto no humano o sección de una foto y generar nuevos elementos en ese espacio a partir de descripciones textuales.

Durante una prueba de una semana con unidades de revisión de los Pixel 9 y 9 Pro, mi equipo y yo experimentamos con los límites de esta herramienta. Pudimos generar imágenes muy perturbadoras, como choques de autos, explosiones en lugares públicos, y cuerpos bajo sábanas manchadas de sangre. Aunque estos resultados requieren cierta creatividad en los comandos, la capacidad de la herramienta para superar las barreras de seguridad es preocupante.

Cuando consultamos a Google sobre estas preocupaciones, el portavoz de la compañía, Alex Moriconi, explicó que Pixel Studio y Magic Editor están diseñados para fomentar la creatividad mediante la generación de texto a imagen y la edición avanzada de fotos. Sin embargo, admitió que la herramienta puede producir contenido ofensivo si se le instruye para ello. Google tiene políticas y Términos de Servicio claros para controlar el contenido, pero las barreras de seguridad a veces se ven desafiadas por comandos creativos.

Una de las principales preocupaciones es la falta de herramientas robustas para identificar y etiquetar imágenes generadas por IA. Aunque Google utiliza un sistema de etiquetado llamado SynthID para imágenes completamente sintéticas creadas por Pixel Studio, las imágenes editadas con Magic Editor no tienen estas etiquetas. Esto facilita la circulación de imágenes manipuladas sin una forma obvia de detectarlas.

La manipulación de fotos no es nueva, pero la facilidad con la que se pueden agregar elementos realistas ahora es inédita. Hace unos años, crear un choque de autos convincente en una imagen requería habilidades avanzadas y software costoso. Hoy en día, solo se necesita un texto breve y un teléfono Pixel.

La velocidad con la que se pueden difundir fotos engañosas también ha aumentado. Las herramientas de edición de imágenes están disponibles en el mismo dispositivo que capturamos y compartimos fotos. Esto hace que sea esencial aplicar escepticismo adicional a las imágenes vistas en línea.

En resumen, mientras que la función Reimagine de Google puede ser una herramienta creativa interesante, sus potenciales usos indebidos y la falta de controles robustos plantean serias preocupaciones. Es crucial que los usuarios y plataformas de medios sean conscientes de estas limitaciones y actúen con cautela.

The post Google Reimagine: La IA que Añade Desastres a Fotos appeared first on TecnoFuturo24.

]]>
https://tecnofuturo24.com/google-reimagine-la-ia-que-anade-desastres-a-fotos/feed/ 0
Meta está etiquetando incorrectamente fotos reales como ‘Hechas por IA’, causando controversia entre fotógrafos https://tecnofuturo24.com/meta-esta-etiquetando-incorrectamente-fotos-reales-como-hechas-por-ia-causando-controversia-entre-fotografos/ https://tecnofuturo24.com/meta-esta-etiquetando-incorrectamente-fotos-reales-como-hechas-por-ia-causando-controversia-entre-fotografos/?noamp=mobile#respond Mon, 24 Jun 2024 23:31:29 +0000 https://tecnofuturo24.com/?p=5790 Varios fotógrafos han levantado quejas contra Meta por agregar de manera errónea…

The post Meta está etiquetando incorrectamente fotos reales como ‘Hechas por IA’, causando controversia entre fotógrafos appeared first on TecnoFuturo24.

]]>
Varios fotógrafos han levantado quejas contra Meta por agregar de manera errónea la etiqueta “Hecho por IA” a fotografías auténticas que ellos han tomado o mejorado con herramientas de edición, según informes de TechCrunch. Esta controversia reciente incluye casos como el de Pete Souza, conocido fotógrafo de la Casa Blanca, cuya foto de un partido de baloncesto fue etiquetada como generada por IA por Meta. Otro ejemplo problemático involucra una imagen en Instagram de los Kolkata Knight Riders celebrando su victoria en la Premier League de Cricket de la India.

Los fotógrafos afectados expresan frustración porque estas etiquetas solo aparecen en dispositivos móviles y no en la web, y reportan dificultades para removerlas, incluso después de usar herramientas comunes de edición como el recorte en Adobe y la conversión a JPEG.

Además, se ha observado que Meta etiqueta incorrectamente como generadas por IA aquellas fotos en las que se ha utilizado herramientas de relleno generativo, como Adobe’s Generative Fill, para eliminar objetos mínimos. Este problema ha sido documentado por PetaPixel, quienes descubrieron que Meta añade la etiqueta en Instagram pero no al reeditar y guardar las imágenes en Photoshop.

El debate sobre la precisión de estas etiquetas ha llevado a la comunidad fotográfica a cuestionar la integridad del término “Hecho por IA”, argumentando que su uso indiscriminado podría desvirtuar su significado. El fotógrafo Noah Kalina expresó en Threads su preocupación de que si incluso las fotos retocadas reciben esta etiqueta, la distinción entre realidad y manipulación podría perderse.

En respuesta a estas críticas, Meta ha indicado que está evaluando su proceso de etiquetado para reflejar de manera más precisa el uso de IA en las imágenes. La compañía ha mencionado que se apoya en estándares de la industria y está colaborando con otras empresas tecnológicas para mejorar estos sistemas de identificación.

Meta anunció en febrero que comenzaría a aplicar estas etiquetas a fotos cargadas en Facebook, Instagram y Threads antes de las elecciones de este año, buscando transparentar el origen de las imágenes generadas por IA. Empresas como Google, OpenAI, Microsoft, Adobe, Midjourney y Shutterstock están trabajando en la implementación de metadatos que indiquen el uso de herramientas de IA en sus productos, una iniciativa que busca facilitar la identificación precisa de imágenes manipuladas digitalmente.

The post Meta está etiquetando incorrectamente fotos reales como ‘Hechas por IA’, causando controversia entre fotógrafos appeared first on TecnoFuturo24.

]]>
https://tecnofuturo24.com/meta-esta-etiquetando-incorrectamente-fotos-reales-como-hechas-por-ia-causando-controversia-entre-fotografos/feed/ 0
El escándalo de la foto de Kate Middleton: Un error con implicaciones significativas https://tecnofuturo24.com/el-escandalo-de-la-foto-de-kate-middleton-un-error-con-implicaciones-significativas/ https://tecnofuturo24.com/el-escandalo-de-la-foto-de-kate-middleton-un-error-con-implicaciones-significativas/?noamp=mobile#respond Tue, 12 Mar 2024 21:10:56 +0000 https://tecnofuturo24.com/?p=3033 Una ola de servicios de noticias se retracta de una imagen editada…

The post El escándalo de la foto de Kate Middleton: Un error con implicaciones significativas appeared first on TecnoFuturo24.

]]>
Una ola de servicios de noticias se retracta de una imagen editada de la Princesa de Gales y sus hijos, desatando una tormenta de teorías conspirativas.

La edición defectuosa de una fotografía de Kate Middleton ha captado la atención a nivel mundial, y va más allá del interés de los tabloides y los teóricos de la conspiración en TikTok. Es un ejemplo destacado de la realidad actual, donde la tecnología y la desconfianza convergen, generando caos.

Resulta difícil comprender qué pasaba por la mente de Middleton, también conocida como la Princesa de Gales y futura Reina de Inglaterra, cuando presuntamente editó su propia fotografía de manera tan descuidada que se convirtió en noticia principal en varios países. Poco después de que la imagen se compartiera públicamente, importantes agencias de noticias como The Associated Press, Getty y Reuters emitieron alertas de retractación, conocidas como “avisos de eliminación”, instando a los medios a no usar la imagen o, en caso de haberlo hecho, a retirarla debido a “manipulación”.

La imagen fue interpretada por los fanáticos como un intento de la familia real de indicar que Middleton se encuentra bien después de someterse a una “cirugía abdominal planificada” en enero. Antes de esto, su ausencia en eventos públicos durante meses alimentó teorías conspirativas sobre su estado de salud.

Se ha especulado mucho sobre los motivos de la familia real y lo que podrían estar ocultando, aunque es importante destacar que podría ser absolutamente nada. Lo más interesante son las estructuras que permiten a Middleton y su familia moldear su imagen pública, y cómo todo esto puede desmoronarse.

Los avisos de eliminación son extremadamente raros. Una fuente en un servicio de noticias me dijo que apenas se emiten unos pocos al año. Para entender la magnitud de esto, consideremos que AP publica miles de historias al día y Getty Images cubre 160,000 eventos anualmente. Que se haya emitido un aviso de eliminación de esta magnitud es significativo.

Una de las razones de esta rareza es la relación establecida entre los servicios de noticias y las organizaciones que les envían imágenes, como el Palacio de Kensington, la NASA o las Naciones Unidas. AP, por ejemplo, no acepta imágenes de personas ajenas a estas organizaciones. El hecho de que el palacio haya ignorado estas reglas es un serio incumplimiento de protocolo.

Las imágenes enviadas a las agencias son revisadas en busca de discrepancias, pero en este caso, la manipulación se detectó después de que la imagen se hiciera pública. Esto plantea la cuestión de si los editores aplicarán un mayor escrutinio a los medios presentados por el Palacio de Kensington.

Los servicios de noticias tienen reglas claras sobre lo que es aceptable y lo que no lo es. Sin embargo, en plataformas como Instagram, donde la imagen manipulada aún está presente sin ninguna nota del palacio, no hay un proceso de revisión. Es justo preguntarse por qué las agencias de noticias no detectaron las irregularidades antes, como la desaparición del puño del suéter de la Princesa Charlotte.

Este escándalo pone de manifiesto la capacidad histórica de la familia real británica para moldear la percepción pública a través de imágenes. Sin embargo, también revela su debilitamiento, así como la fragilidad de la realidad en la era de las redes sociales y las herramientas de IA generativa.

En resumen, cuando las fotos pueden ser modificadas fácilmente, la realidad se vuelve cuestionable. En un mundo donde cada vez es más difícil distinguir entre lo real y lo falso, la percepción puede ser moldeada según los deseos del espectador.

The post El escándalo de la foto de Kate Middleton: Un error con implicaciones significativas appeared first on TecnoFuturo24.

]]>
https://tecnofuturo24.com/el-escandalo-de-la-foto-de-kate-middleton-un-error-con-implicaciones-significativas/feed/ 0