Imágenes generadas por IA Archives - TecnoFuturo24 https://tecnofuturo24.com/tag/imagenes-generadas-por-ia/ El futuro de la tecnología en un solo lugar. Tech News. Mon, 17 Mar 2025 16:55:59 +0000 en-US hourly 1 https://wordpress.org/?v=6.9.4 https://tecnofuturo24.com/wp-content/uploads/2024/01/cropped-cropped-TecnoFuturo24Box-32x32.jpeg Imágenes generadas por IA Archives - TecnoFuturo24 https://tecnofuturo24.com/tag/imagenes-generadas-por-ia/ 32 32 La controvertida capacidad del modelo AI Gemini 2.0 Flash de Google para eliminar marcas de agua genera preocupaciones sobre derechos de autor https://tecnofuturo24.com/la-controvertida-capacidad-del-modelo-ai-gemini-2-0-flash-de-google-para-eliminar-marcas-de-agua-genera-preocupaciones-sobre-derechos-de-autor/ Mon, 17 Mar 2025 16:55:59 +0000 https://tecnofuturo24.com/?p=12253 Google ha desatado una polémica sin precedentes con la reciente ampliación de…

The post La controvertida capacidad del modelo AI Gemini 2.0 Flash de Google para eliminar marcas de agua genera preocupaciones sobre derechos de autor appeared first on TecnoFuturo24.

]]>
Google ha desatado una polémica sin precedentes con la reciente ampliación de acceso a su modelo de inteligencia artificial Gemini 2.0 Flash, capaz de generar y editar contenido de imágenes. Sin embargo, uno de los usos más controvertidos de esta tecnología es su capacidad para eliminar marcas de agua, incluyendo aquellas de plataformas tan reconocidas como Getty Images y otros bancos de imágenes de stock.

Gemini 2.0 Flash: Un avance revolucionario con riesgos inherentes

El modelo Gemini 2.0 Flash fue diseñado para permitir la creación y edición de imágenes de manera nativa, posicionándose como una herramienta experimental dentro de los laboratorios de desarrollo de Google, como AI Studio. Según informes recientes, este modelo puede no solo eliminar marcas de agua de imágenes existentes, sino también rellenar las áreas vacías que quedan tras su eliminación. Aunque este tipo de capacidad no es exclusivo de Gemini 2.0 Flash, lo que ha generado alarma es la eficacia y facilidad con la que realiza estas acciones.

Sin embargo, el modelo no es infalible. Algunos usuarios en plataformas como X (anteriormente Twitter) y Reddit han señalado que Gemini 2.0 Flash enfrenta dificultades con ciertas marcas de agua semi-transparentes o que cubren grandes secciones de imágenes, demostrando que aún está lejos de ser un sistema perfecto.

Eliminar marcas de agua sin el consentimiento del propietario original puede ser considerado ilegal según las leyes de derechos de autor de los Estados Unidos, excepto en raras excepciones. Según diversos expertos legales, esta práctica podría desencadenar acciones legales contra los usuarios o incluso contra Google, dependiendo del contexto y el uso de la tecnología.

Otros modelos de inteligencia artificial, como Claude 3.7 Sonnet de Anthropic o GPT-4o de OpenAI, han implementado explícitamente barreras para impedir la eliminación de marcas de agua, catalogando esta práctica como “inmoral e ilegal”. Sin embargo, la falta de restricciones en el Gemini 2.0 Flash ha suscitado preocupaciones significativas entre los propietarios de derechos de autor.

Google bajo el escrutinio público

A pesar de los riesgos inherentes, Google ha etiquetado la función de generación de imágenes de Gemini 2.0 Flash como “experimental” y “no apta para uso de producción”. Sin embargo, esta decisión no ha calmado a los críticos, quienes argumentan que la tecnología necesita barreras de seguridad más robustas para prevenir usos indebidos.

Hasta el momento, Google no ha proporcionado comentarios oficiales sobre este asunto. Sin embargo, la presión pública sigue aumentando a medida que la tecnología se pone en manos de más desarrolladores.

 

The post La controvertida capacidad del modelo AI Gemini 2.0 Flash de Google para eliminar marcas de agua genera preocupaciones sobre derechos de autor appeared first on TecnoFuturo24.

]]>
La Estafa con Imagenes Generadas por IA de Brad Pitt: Cómo una Mujer Francesa Fue Engañada y Perdió 850,000 Dólares https://tecnofuturo24.com/la-estafa-con-imagenes-generadas-por-ia-de-brad-pitt-como-una-mujer-francesa-fue-enganada-y-perdio-850000-dolares/ https://tecnofuturo24.com/la-estafa-con-imagenes-generadas-por-ia-de-brad-pitt-como-una-mujer-francesa-fue-enganada-y-perdio-850000-dolares/?noamp=mobile#respond Wed, 15 Jan 2025 23:36:27 +0000 https://tecnofuturo24.com/?p=10688 Un caso alarmante de fraude en línea ha surgido en Francia, donde…

The post La Estafa con Imagenes Generadas por IA de Brad Pitt: Cómo una Mujer Francesa Fue Engañada y Perdió 850,000 Dólares appeared first on TecnoFuturo24.

]]>
Un caso alarmante de fraude en línea ha surgido en Francia, donde una mujer fue engañada para enviar la asombrosa cantidad de 850,000 dólares a través de un supuesto romance con el actor de Hollywood Brad Pitt, quien en realidad era una versión digital del actor creada mediante inteligencia artificial (IA). Este incidente pone de relieve el creciente uso de la IA en estafas y la necesidad urgente de educación sobre los riesgos que conlleva el uso de imágenes generadas por IA en plataformas sociales.

El Inicio de la Estafa: Un Encuentro Virtual con una Falsa Madre de Brad Pitt

Todo comenzó cuando Anne, una mujer francesa de 53 años, decidió comenzar a usar Instagram por primera vez durante unas vacaciones en familia en las montañas. En ese contexto, una persona se puso en contacto con ella, haciéndose pasar por Jane Etta Pitt, la madre de Brad Pitt. Esta figura ficticia le aseguró que su hijo, el famoso actor, necesitaba a alguien como ella en su vida. Aunque en un principio Anne dudó de la autenticidad del mensaje, el engaño fue lo suficientemente convincente como para que comenzara a interactuar con el “Brad Pitt” virtual.

“Al principio, pensé que todo era falso, que era ridículo, pero no estaba familiarizada con las redes sociales y no entendía bien lo que me estaba sucediendo”, compartió Anne en una entrevista reciente en el programa Seven to Eight de TF1. Este es un ejemplo claro de cómo los delincuentes cibernéticos se aprovechan de la falta de experiencia de algunas personas en plataformas digitales.

El Desarrollo del Engaño: Comunicaciones en Línea con un Brad Pitt Generado por IA

Después de este primer contacto, Anne comenzó a recibir mensajes de una cuenta en Instagram que se hacía pasar por Brad Pitt, utilizando fotos generadas por IA. En esos mensajes, el supuesto actor le explicó que se encontraba atravesando una difícil situación personal, incluyendo un proceso de divorcio con Angelina Jolie, lo que le impedía acceder a su propia cuenta bancaria. Este escenario ficticio permitió que el “Brad Pitt virtual” convenciera a Anne de que necesitaba su ayuda financiera para cubrir los gastos de un tratamiento médico relacionado con una enfermedad renal.

A medida que las interacciones se prolongaron, el supuesto Brad Pitt continuó enviando fotos generadas por IA que parecían ser de él, acompañadas de mensajes personalizados que reforzaban la ilusión de una relación genuina. “Cada vez que me enviaba un mensaje, sentía que era más real”, expresó Anne durante la entrevista. Esto revela una de las tácticas más efectivas de los estafadores: crear una falsa conexión emocional con las víctimas para que se sientan obligadas a ayudar.

El Fraude Escalando: Grandes Cantidades de Dinero Enviadas a un Estafador

A lo largo de varios meses, Anne siguió enviando grandes sumas de dinero, que superaron los 850,000 dólares, para “ayudar” a su pareja virtual con sus problemas financieros. Este tipo de fraude, conocido como “romance scam” o estafa romántica, ha sido cada vez más común en el mundo digital. Las víctimas son manipuladas emocionalmente y se les hace creer que están en una relación con una persona famosa o atractiva, lo que las lleva a tomar decisiones financieras desastrosas.

“Me decía que, debido a su situación personal, no podía acceder a su cuenta bancaria. Eso me hizo sentir que realmente debía ayudarle”, explicó Anne. La manipulación psicológica, sumada a las imágenes generadas por IA que parecían auténticas, fueron elementos clave para que la mujer siguiera enviando dinero durante más de un año.

El Descubrimiento del Fraude: La Realidad Rompe la Ilusión

La gran revelación ocurrió en el verano de 2023, cuando Anne comenzó a ver en las noticias que Brad Pitt había comenzado una relación con su nueva novia, Ines de Ramon. Este hecho la hizo darse cuenta de que había sido víctima de una estafa. Al ver las fotos reales del actor en las noticias, se percató de que las imágenes que había estado recibiendo eran generadas artificialmente.

La noticia de este engaño se viralizó rápidamente, causando una gran conmoción tanto en Francia como internacionalmente. Anne, después de darse cuenta de la magnitud del fraude, presentó una denuncia ante las autoridades policiales. Este incidente ha puesto en evidencia no solo los peligros de las estafas en línea, sino también los riesgos asociados al uso de tecnologías emergentes como la inteligencia artificial.

La Amenaza Creciente: El Uso de la Inteligencia Artificial en Estafas

Este fraude subraya un problema creciente en el ámbito digital: el uso de la inteligencia artificial para crear imágenes y contenido completamente falsos que son tan realistas que es casi imposible distinguirlos de la realidad. Las imágenes generadas por IA, combinadas con el uso de perfiles falsos en redes sociales, permiten a los delincuentes crear estafas más sofisticadas y difíciles de detectar. En el caso de Anne, las fotos generadas por IA de Brad Pitt eran tan convincentes que ella nunca sospechó de la falsedad de la relación.

Los avances en la tecnología de generación de imágenes mediante inteligencia artificial, como las generadas por algoritmos de redes generativas adversariales (GAN), están haciendo que estos fraudes sean cada vez más difíciles de detectar. Los estafadores pueden crear avatares hiperrealistas de personas famosas y hacerlos interactuar de manera personalizada con las víctimas, lo que aumenta la efectividad del engaño.

La Prevención: Cómo Protegerse de las Estafas con IA

Este caso resalta la necesidad urgente de que los usuarios de redes sociales, especialmente aquellos no familiarizados con la tecnología, se eduquen sobre los riesgos asociados con la inteligencia artificial y las estafas en línea. Aquí hay algunas recomendaciones clave para protegerse de fraudes similares:

  1. Desconfía de los mensajes no solicitados: Si recibes un mensaje de una persona famosa o de alguien que no conoces, especialmente si te piden dinero, es muy probable que sea un intento de fraude.
  2. Verifica la fuente de las imágenes: Si las imágenes parecen demasiado perfectas o irreales, pueden haber sido generadas por IA. Existen herramientas en línea que te permiten realizar una búsqueda inversa de imágenes para verificar su autenticidad.
  3. Educación digital: Es importante mantenerse informado sobre los riesgos en línea y saber cómo proteger tu privacidad en las redes sociales.
  4. Contacta con las autoridades: Si sospechas que eres víctima de una estafa, es crucial reportarlo a las autoridades lo antes posible para evitar mayores pérdidas.

La Necesidad de Regulación y Conciencia Pública

El caso de Anne es solo un ejemplo de cómo la tecnología, especialmente la inteligencia artificial, está siendo utilizada de manera malintencionada para explotar a personas vulnerables. A medida que las tecnologías avanzan, también lo hacen las amenazas que enfrentan los usuarios en línea. Es fundamental que las plataformas sociales implementen medidas más estrictas para detectar y prevenir estos fraudes y que los usuarios reciban educación adecuada sobre cómo identificar señales de alerta.

La estafa de Anne pone de manifiesto que, aunque la inteligencia artificial tiene un enorme potencial positivo, también puede ser utilizada de manera maliciosa, y es necesario tomar medidas tanto a nivel individual como colectivo para mitigar estos riesgos.

The post La Estafa con Imagenes Generadas por IA de Brad Pitt: Cómo una Mujer Francesa Fue Engañada y Perdió 850,000 Dólares appeared first on TecnoFuturo24.

]]>
https://tecnofuturo24.com/la-estafa-con-imagenes-generadas-por-ia-de-brad-pitt-como-una-mujer-francesa-fue-enganada-y-perdio-850000-dolares/feed/ 0
Taylor Swift Respalda a Kamala Harris en Respuesta a Imágenes Falsas Generadas por IA https://tecnofuturo24.com/taylor-swift-respalda-a-kamala-harris-en-respuesta-a-imagenes-falsas-generadas-por-ia/ https://tecnofuturo24.com/taylor-swift-respalda-a-kamala-harris-en-respuesta-a-imagenes-falsas-generadas-por-ia/?noamp=mobile#respond Wed, 11 Sep 2024 19:04:16 +0000 https://tecnofuturo24.com/?p=8267 Taylor Swift ha anunciado que planea votar por la vicepresidenta Kamala Harris…

The post Taylor Swift Respalda a Kamala Harris en Respuesta a Imágenes Falsas Generadas por IA appeared first on TecnoFuturo24.

]]>
Taylor Swift ha anunciado que planea votar por la vicepresidenta Kamala Harris en las elecciones presidenciales de noviembre. La decisión de la cantante se ha visto impulsada en parte por imágenes generadas por IA que falsamente la mostraban respaldando la candidatura presidencial de Donald Trump.

“Recientemente me enteré de que se publicaron imágenes generadas por IA de ‘mí’ falsamente respaldando la candidatura presidencial de Donald Trump en su sitio. Esto realmente despertó mis temores sobre la IA y los peligros de difundir información errónea”, escribió Swift en una publicación en Instagram. “Me llevó a la conclusión de que necesito ser muy transparente sobre mis verdaderos planes para esta elección como votante. La forma más sencilla de combatir la desinformación es con la verdad.”

Imágenes Generadas por IA y Su Impacto en la Elección

La publicación de Swift hace referencia a un incidente a fines de agosto en el que Trump compartió una colección de imágenes en Truth Social que parecían mostrar apoyo a su campaña presidencial. Algunas de las fotos incluían lemas como “Swifties por Trump”, y una imagen claramente generada por IA mostraba a Swift en un estilo similar al de Uncle Sam con el texto “Taylor quiere que VOTES por Donald Trump.” El expresidente subtituló la publicación: “¡Acepto!”

Otros Incidentes de Desinformación con IA

En su publicación de respaldo, Swift también mencionó temas importantes como los derechos LGBTQ+, la atención reproductiva y la fertilización in vitro (FIV). Dirigió a sus fans a su historia de Instagram, donde incluyó un enlace para registrarse para votar.

El uso de herramientas de IA para difundir desinformación ha sido una preocupación creciente, especialmente con la proximidad de las elecciones presidenciales en EE. UU. En enero, antes de que Harris se convirtiera en la candidata principal del Partido Demócrata, algunos votantes en New Hampshire recibieron llamadas robóticas falsas generadas por IA que imitaban la voz del presidente Joe Biden. La llamada, que desalentaba la participación en las primarias del estado, llegó a más de 20,000 personas, según CNN.

Algunas empresas de IA han implementado restricciones en sus herramientas para combatir la desinformación electoral. Google, por ejemplo, anunció recientemente que limitaría las consultas electorales en los Resúmenes de IA, la función de resultados de búsqueda generados por IA de la compañía.

No es la primera vez que se circulan imágenes generadas por IA de Swift en las redes sociales. A principios de este año, se compartieron imágenes sexualizadas no consensuadas de ella hechas con IA en X. Este incidente llevó a la Casa Blanca a solicitar legislación para abordar el problema.

The post Taylor Swift Respalda a Kamala Harris en Respuesta a Imágenes Falsas Generadas por IA appeared first on TecnoFuturo24.

]]>
https://tecnofuturo24.com/taylor-swift-respalda-a-kamala-harris-en-respuesta-a-imagenes-falsas-generadas-por-ia/feed/ 0
Ingeniero de Microsoft alerta a la FTC sobre problemas de seguridad de Copilot Designer https://tecnofuturo24.com/un-ingeniero-de-microsoft-advierte-a-la-ftc-sobre-preocupaciones-de-seguridad-de-copilot-designer/ https://tecnofuturo24.com/un-ingeniero-de-microsoft-advierte-a-la-ftc-sobre-preocupaciones-de-seguridad-de-copilot-designer/?noamp=mobile#respond Wed, 06 Mar 2024 19:32:39 +0000 https://tecnofuturo24.com/?p=2841 Un ingeniero de Microsoft ha enviado una advertencia a la Comisión Federal…

The post Ingeniero de Microsoft alerta a la FTC sobre problemas de seguridad de Copilot Designer appeared first on TecnoFuturo24.

]]>
Un ingeniero de Microsoft ha enviado una advertencia a la Comisión Federal de Comercio (FTC) respecto a Copilot Designer, un generador de imágenes de inteligencia artificial que según informes de CNBC ha generado escenas perturbadoras sin abordar adecuadamente por parte de Microsoft. Estas preocupaciones incluyen la generación de imágenes inapropiadas y potencialmente perjudiciales, como demonios, escenas violentas y referencias a temas sensibles como el aborto y el consumo de drogas por parte de menores. Este informe detalla los hallazgos del ingeniero, Shane Jones, quien ha instado a Microsoft a tomar medidas para abordar estos problemas de seguridad. La situación se suma a las preocupaciones más amplias sobre la ética y la seguridad en el desarrollo y uso de la inteligencia artificial.

Un ingeniero de Microsoft, Shane Jones, ha llevado sus preocupaciones sobre la seguridad de Copilot Designer a la Comisión Federal de Comercio (FTC). Según un informe de CNBC, Jones ha descubierto que este generador de imágenes de inteligencia artificial ha producido escenas perturbadoras que Microsoft no ha abordado adecuadamente. A pesar de las advertencias reiteradas sobre su capacidad para generar imágenes potencialmente perjudiciales, como demonios, escenas de violencia, y referencias a temas sensibles como el aborto y el consumo de drogas por menores, Microsoft se ha negado a retirar la herramienta del mercado.

Además de estas preocupaciones, Jones encontró que Copilot Designer generó imágenes inapropiadas relacionadas con personajes de Disney, como Elsa de Frozen, en entornos como la Franja de Gaza, con edificios destruidos y mensajes políticos. También se han generado imágenes de Elsa vistiendo un uniforme militar con la bandera de Israel. Estos hallazgos son particularmente preocupantes en un contexto en el que la tecnología de inteligencia artificial está siendo cada vez más utilizada en diversos ámbitos, y la falta de salvaguardias adecuadas puede tener consecuencias negativas significativas.

Este informe destaca los esfuerzos de Jones por abordar estas preocupaciones desde diciembre, cuando comenzó a advertir a Microsoft sobre los problemas de seguridad de Copilot Designer. A pesar de sus intentos, y de publicar una carta abierta en LinkedIn sobre el tema, Jones fue contactado por el equipo legal de Microsoft para eliminar la publicación. Sin embargo, él persiste en sus esfuerzos por mejorar la seguridad y la ética en el desarrollo y uso de la inteligencia artificial.

Estos problemas también reflejan preocupaciones más amplias sobre la ética y la seguridad en el desarrollo y uso de la inteligencia artificial. Con incidentes recientes como la generación de imágenes explícitas de celebridades por parte de sistemas de inteligencia artificial, es evidente que se necesitan medidas más rigurosas para garantizar que estas tecnologías se utilicen de manera responsable y segura.

The post Ingeniero de Microsoft alerta a la FTC sobre problemas de seguridad de Copilot Designer appeared first on TecnoFuturo24.

]]>
https://tecnofuturo24.com/un-ingeniero-de-microsoft-advierte-a-la-ftc-sobre-preocupaciones-de-seguridad-de-copilot-designer/feed/ 0