regulación de IA Archives - TecnoFuturo24 https://tecnofuturo24.com/tag/regulacion-de-ia/ El futuro de la tecnología en un solo lugar. Tech News. Mon, 24 Feb 2025 12:13:43 +0000 en-US hourly 1 https://wordpress.org/?v=6.9.1 https://tecnofuturo24.com/wp-content/uploads/2024/01/cropped-cropped-TecnoFuturo24Box-32x32.jpeg regulación de IA Archives - TecnoFuturo24 https://tecnofuturo24.com/tag/regulacion-de-ia/ 32 32 La próxima ola de IA está aquí: los agentes autónomos de IA son asombrosos y aterradores https://tecnofuturo24.com/la-proxima-ola-de-ia-esta-aqui-los-agentes-autonomos-de-ia-son-asombrosos-y-aterradores/ Mon, 24 Feb 2025 12:13:43 +0000 https://tecnofuturo24.com/?p=11722 La inteligencia artificial (IA) está avanzando a un ritmo tan acelerado que…

The post La próxima ola de IA está aquí: los agentes autónomos de IA son asombrosos y aterradores appeared first on TecnoFuturo24.

]]>
La inteligencia artificial (IA) está avanzando a un ritmo tan acelerado que se ha vuelto difícil separar la realidad de la exageración. Con cada nueva innovación, surgen rumores y especulaciones, y el público se ve arrastrado por la vorágine del entusiasmo. En este contexto, es comprensible que muchos hayan dejado de prestar atención a las discusiones sobre los agentes autónomos de IA. Sin embargo, permítanme darles un consejo: no lo hagan. La importancia de la IA autónoma podría superar incluso el auge mediático que la rodea.

¿Qué es un agente autónomo de IA?

Un agente autónomo de IA es un sistema diseñado para interactuar con su entorno, tomar decisiones, realizar acciones y aprender de sus experiencias sin la intervención constante de un ser humano. Este avance representa un cambio sísmico en el uso de la IA, ya que trasciende la simple automatización de tareas repetitivas y entra en un territorio donde la IA tiene la capacidad de aprender y adaptarse por sí misma. Esta capacidad de interactuar de manera autónoma con el mundo real abre un abanico de posibilidades, pero también plantea riesgos significativos.

La evolución de la IA generativa

Hasta ahora, los sistemas de IA generativa, como los modelos de lenguaje, han funcionado bajo la supervisión humana. Estos sistemas, conocidos como “GPT” (Generative Pretrained Transformers), se entrenan con vastos volúmenes de datos y luego responden a los inputs o solicitudes de los usuarios de manera muy similar a como un niño imita palabras o sonidos. Aunque esta tecnología ha mostrado avances impresionantes, su capacidad para generar respuestas es, en muchos casos, más una imitación que una verdadera comprensión o creatividad.

La IA generativa actual es capaz de producir respuestas complejas y naturales, pero estas respuestas se limitan a los datos con los que fue entrenada. Esta es una de las principales diferencias con los agentes autónomos de IA. Mientras que los sistemas generativos responden dentro de un universo predefinido de datos, los agentes autónomos pueden interactuar directamente con el entorno, buscar y procesar datos previamente desconocidos y, lo más importante, tomar decisiones sin intervención humana. Este tipo de IA se aproxima más a lo que podría considerarse “inteligencia real”, ya que su capacidad de tomar decisiones no está restringida a los límites de los datos preexistentes.

La visión de Bill Gates: la revolución en la informática

Bill Gates, uno de los pioneros de la informática moderna, ha declarado que los agentes autónomos de IA traerán consigo una revolución mucho más profunda que la que provocó el cambio de las interfaces de comandos a las interfaces gráficas de usuario. Este cambio, que permitió a las personas interactuar con las computadoras mediante iconos y ventanas en lugar de escribir comandos, transformó la forma en que utilizamos la tecnología. Según Gates, los agentes autónomos de IA podrían tener un impacto aún mayor, alterando no solo la informática, sino la manera en que interactuamos con el mundo digital.

¿Cómo funcionan los agentes autónomos de IA?

Los agentes autónomos de IA están diseñados para tomar decisiones sin la supervisión humana directa. Estos sistemas pueden acceder a fuentes de datos externas, analizarlas y, a partir de ese análisis, tomar medidas para resolver problemas o realizar tareas. Este enfoque permite una mayor autonomía y flexibilidad, lo que significa que los agentes pueden operar de manera más parecida a como lo haría un ser humano al interactuar con su entorno. La capacidad de estos agentes para aprender de la experiencia y adaptarse a situaciones nuevas representa un avance significativo respecto a los sistemas de IA tradicionales, que solo pueden actuar dentro de los límites de los datos con los que fueron entrenados.

Las ventajas de los agentes autónomos de IA

Las ventajas de los agentes autónomos de IA son evidentes. En primer lugar, permiten la automatización de tareas repetitivas y rutinarias, lo que puede aumentar la productividad de las empresas y liberar a los empleados de trabajos tediosos. Además, los agentes autónomos tienen el potencial de realizar tareas mucho más complejas que los sistemas tradicionales de IA, ya que pueden tomar decisiones en tiempo real y adaptarse a situaciones imprevistas.

Por ejemplo, en el ámbito empresarial, los agentes autónomos de IA podrían analizar grandes volúmenes de datos en tiempo real para tomar decisiones informadas sobre la gestión de inventarios, la optimización de precios o la planificación de la producción. Este tipo de autonomía no solo ahorra tiempo y recursos, sino que también mejora la precisión de las decisiones al reducir el margen de error humano.

El riesgo de los agentes autónomos de IA

Aunque los beneficios de los agentes autónomos de IA son innegables, también existen riesgos significativos que deben ser considerados. La mayor preocupación es que, al operar sin supervisión humana directa, los agentes pueden cometer errores catastróficos que no se pueden corregir a tiempo. Debido a su capacidad para tomar decisiones de manera autónoma, los errores cometidos por estos sistemas podrían multiplicarse y amplificarse rápidamente, lo que podría generar consecuencias imprevistas y potencialmente desastrosas.

Por ejemplo, en el sector financiero, un agente autónomo de IA podría, sin intención, tomar decisiones que desencadenen una crisis de mercado. De manera similar, en el ámbito de la seguridad, un agente autónomo podría, sin saberlo, provocar un conflicto internacional al interpretar mal una situación y actuar de manera incorrecta. Los riesgos de estos errores no se limitan a las consecuencias inmediatas; también existen riesgos a largo plazo relacionados con la seguridad cibernética y el uso indebido de la tecnología.

El impacto en la legislación y el cumplimiento normativo

Otro aspecto que debe considerarse es el impacto de los agentes autónomos de IA en la legislación y el cumplimiento normativo. A medida que más empresas adoptan herramientas de IA para gestionar procesos críticos, como la selección y contratación de personal, las evaluaciones de desempeño o la toma de decisiones legales, surge el riesgo de que estos sistemas produzcan resultados injustos o discriminatorios. Este fenómeno se conoce como sesgo algorítmico, y aunque la IA se presenta como una solución imparcial, los algoritmos pueden estar diseñados de manera que reflejen los prejuicios humanos, lo que lleva a decisiones erróneas o injustas.

En respuesta a estos problemas, muchos países están adoptando leyes que penalizan tanto a los desarrolladores como a los usuarios de herramientas de IA que produzcan resultados sesgados. Esto significa que las empresas que utilicen agentes autónomos de IA para tomar decisiones laborales o comerciales pueden enfrentarse a sanciones si sus sistemas no cumplen con las regulaciones en materia de equidad y justicia. Además, las empresas también pueden verse involucradas en litigios si sus sistemas de IA son responsables de decisiones perjudiciales para los empleados o consumidores.

La importancia de un enfoque equilibrado

Es innegable que los agentes autónomos de IA presentan una oportunidad significativa para mejorar la productividad y la eficiencia en muchos sectores. No obstante, es crucial que las empresas y los responsables políticos adopten un enfoque equilibrado que tenga en cuenta tanto las ventajas como los riesgos de esta tecnología emergente. La autonomía de la IA debe ser acompañada de un marco de gobernanza claro y regulaciones que garanticen que su uso sea seguro, ético y justo.

The post La próxima ola de IA está aquí: los agentes autónomos de IA son asombrosos y aterradores appeared first on TecnoFuturo24.

]]>
Hollywood respalda enérgicamente el proyecto de ley de seguridad de IA en California https://tecnofuturo24.com/hollywood-respalda-energicamente-el-proyecto-de-ley-de-seguridad-de-ia-en-california/ https://tecnofuturo24.com/hollywood-respalda-energicamente-el-proyecto-de-ley-de-seguridad-de-ia-en-california/?noamp=mobile#respond Wed, 25 Sep 2024 01:52:32 +0000 https://tecnofuturo24.com/?p=8630 A medida que se acerca la decisión del gobernador Gavin Newsom, los…

The post Hollywood respalda enérgicamente el proyecto de ley de seguridad de IA en California appeared first on TecnoFuturo24.

]]>
A medida que se acerca la decisión del gobernador Gavin Newsom, los miembros de SAG-AFTRA aprovechan su influencia para impulsar la aprobación del SB 1047

La batalla entre dos potencias de California —Hollywood y Silicon Valley— está en pleno apogeo por el destino del SB 1047, el primer proyecto de ley de seguridad de IA en Estados Unidos. Aunque aún no está claro si el gobernador Gavin Newsom firmará la legislación, una serie de respaldos por parte de estrellas de Hollywood marca el primer esfuerzo organizado por parte de celebridades para avanzar en las regulaciones de IA que van más allá de los intereses directos de la industria del entretenimiento.

El martes, más de 125 nombres de alto perfil de Hollywood publicaron una carta abierta instando a Newsom a firmar el proyecto de ley. Entre los firmantes se incluyen Ava DuVernay, Jane Fonda, J.J. Abrams, Shonda Rhimes, Alec Baldwin, Pedro Pascal, Jessica Chastain, Adam McKay y Ron Perlman. “Creemos plenamente en el deslumbrante potencial de la IA para ser utilizada para el bien, pero también debemos ser realistas sobre los riesgos”, decía la carta. Según una fuente cercana a los actores, uno de los firmantes redactó la carta personalmente, lo que refleja el entusiasmo genuino por el tema.

¿Qué propone el SB 1047?

El SB 1047 es el proyecto de ley más significativo de seguridad de IA en Estados Unidos hasta la fecha, y la firma de Newsom rompería con el precedente de permitir que la industria se autorregule a través de compromisos voluntarios. El núcleo del proyecto de ley exige que los mayores desarrolladores de IA implementen salvaguardias para reducir el riesgo de que sus modelos provoquen o faciliten desastres como ciberataques severos o pandemias. Este proyecto se aplicaría a cualquier empresa de IA que opere en California, hogar de las cinco principales compañías de IA generativa y la quinta economía más grande del mundo, lo que lo convierte en una regulación nacional de facto en un país que ha quedado rezagado frente a la UE, China y el Reino Unido en la regulación de la IA.

El proyecto fue aprobado por la legislatura de California en agosto y Newsom tiene hasta el 30 de septiembre para firmarlo o vetarlo. Sin embargo, aún no está claro qué decisión tomará. En una entrevista reciente con el fundador de Salesforce, Marc Benioff, Newsom expresó sus primeras opiniones sobre el SB 1047, sugiriendo que tiene reservas sobre el impacto potencial de la ley en la competitividad del estado.

Apoyo y oposición al SB 1047

El SB 1047 ha generado tanto apoyo como intensas críticas. La mayoría de la industria de la IA, incluidos personajes como la ex presidenta de la Cámara de Representantes Nancy Pelosi y la alcaldesa de San Francisco London Breed, se oponen al proyecto. Sin embargo, cuenta con el respaldo de organizaciones poderosas como el Sindicato Internacional de Empleados de Servicios (SEIU), la Fundación de la Comunidad Latina, Elon Musk y SAG-AFTRA.

El apoyo de SAG-AFTRA es particularmente notable. Aunque en un principio no estaba claro cuánta fuerza pondría el sindicato detrás del SB 1047, su participación ha crecido, con líderes como Fran Drescher y Sean Astin encabezando el esfuerzo.

“Somos los canarios en la mina de carbón”

Astin, conocido por su papel en El Señor de los Anillos, escribió una carta personal a Newsom, argumentando que el SB 1047 es necesario “porque es el único proyecto de ley que busca regular los modelos de lenguaje más grandes y los clusters informáticos utilizados por las gigantes tecnológicas”. Además, SAG-AFTRA ha estado a la vanguardia de los esfuerzos para regular la IA en EE. UU., especialmente tras la huelga de actores de 2023, en la que la IA fue un obstáculo importante.

El apoyo de Hollywood al SB 1047 subraya una creciente fractura entre las élites de Hollywood y Silicon Valley. Mientras varios multimillonarios de la tecnología han pivotado hacia la derecha, las estrellas de Hollywood, como Mark Hamill y Alyssa Milano, se han mantenido sólidamente en el ala progresista.

El futuro de la IA en manos de Newsom

A medida que se acerca la fecha límite, el futuro de la regulación de la IA en California está en manos de Newsom. Su decisión final podría marcar un hito en la lucha entre el entretenimiento y la tecnología, y definir el papel de California en la seguridad global de la IA.

The post Hollywood respalda enérgicamente el proyecto de ley de seguridad de IA en California appeared first on TecnoFuturo24.

]]>
https://tecnofuturo24.com/hollywood-respalda-energicamente-el-proyecto-de-ley-de-seguridad-de-ia-en-california/feed/ 0
Telecom pagará $1 millón por deepfake de Joe Biden en llamada automatizada https://tecnofuturo24.com/telecom-pagara-1-millon-por-deepfake-de-joe-biden-en-llamada-automatizada/ https://tecnofuturo24.com/telecom-pagara-1-millon-por-deepfake-de-joe-biden-en-llamada-automatizada/?noamp=mobile#respond Thu, 22 Aug 2024 00:16:15 +0000 https://tecnofuturo24.com/?p=7714 Una empresa de telecomunicaciones, Lingo Telecom, ha acordado pagar $1 millón para…

The post Telecom pagará $1 millón por deepfake de Joe Biden en llamada automatizada appeared first on TecnoFuturo24.

]]>
Una empresa de telecomunicaciones, Lingo Telecom, ha acordado pagar $1 millón para resolver una acción de cumplimiento de la Comisión Federal de Comunicaciones (FCC), después de transmitir una llamada automatizada con un deepfake de la voz del presidente Joe Biden. La FCC anunció esta sanción como parte de sus esfuerzos para combatir el uso engañoso de la inteligencia artificial (IA) en las comunicaciones.

En enero, Lingo Telecom retransmitió un mensaje falso de Biden a los votantes de New Hampshire, instándolos a no participar en las primarias demócratas. La FCC identificó al consultor político Steve Kramer como la persona detrás de las llamadas generadas por IA y previamente propuso una multa adicional de $6 millones para Kramer.

Como parte del nuevo acuerdo con Lingo, la FCC ha establecido que la empresa deberá adherirse estrictamente a las normas de autenticación de identificador de llamadas, incluyendo los principios de “conoce a tu cliente”. Además, la FCC requerirá que Lingo verifique más exhaustivamente la precisión de la información proporcionada por sus clientes y proveedores de servicios, según un comunicado de prensa. Un portavoz de Lingo no respondió de inmediato a una solicitud de comentarios.

La presidenta de la FCC, Jessica Rosenworcel, afirmó: “Cada uno de nosotros merece saber que la voz al otro lado de la línea es exactamente quien dice ser. Si se utiliza IA, eso debería ser claro para cualquier consumidor, ciudadano y votante que se lo encuentre. La FCC actuará cuando la confianza en nuestras redes de comunicación esté en juego.”

En febrero, la FCC adoptó una prohibición de voces generadas por IA en llamadas automatizadas sin el consentimiento de los destinatarios, poco después de que se reportara la llamada deepfake de New Hampshire. La FCC también propuso recientemente requisitos para que los anunciantes políticos revelen el uso de IA generativa en radio y televisión.

The post Telecom pagará $1 millón por deepfake de Joe Biden en llamada automatizada appeared first on TecnoFuturo24.

]]>
https://tecnofuturo24.com/telecom-pagara-1-millon-por-deepfake-de-joe-biden-en-llamada-automatizada/feed/ 0
La Generadora de Imágenes de IA de X: Un Análisis de la Última Función de Grok https://tecnofuturo24.com/la-generadora-de-imagenes-de-ia-de-x-un-analisis-de-la-ultima-funcion-de-grok/ https://tecnofuturo24.com/la-generadora-de-imagenes-de-ia-de-x-un-analisis-de-la-ultima-funcion-de-grok/?noamp=mobile#respond Wed, 14 Aug 2024 21:45:20 +0000 https://tecnofuturo24.com/?p=7488 El chatbot Grok de xAI ha lanzado una nueva función que permite…

The post La Generadora de Imágenes de IA de X: Un Análisis de la Última Función de Grok appeared first on TecnoFuturo24.

]]>
El chatbot Grok de xAI ha lanzado una nueva función que permite a los usuarios crear imágenes a partir de indicaciones textuales y publicarlas en X, la red social dirigida por Elon Musk. Esta innovadora característica está causando un alboroto por su capacidad para generar imágenes polémicas y controversiales.

Qué es Grok y Cómo Está Cambiando el Juego de la Generación de Imágenes

Grok ofrece a los suscriptores de X Premium la posibilidad de crear imágenes a partir de descripciones textuales. Sin embargo, el despliegue de esta herramienta ha demostrado ser tan caótico como el resto de la red social. Desde imágenes de Barack Obama haciendo cocaína hasta Donald Trump con una mujer embarazada que se asemeja a Kamala Harris, la función ha generado una serie de publicaciones que han desafiado las normas de contenido.

Imágenes Polémicas y sus Implicaciones en la Regulación de IA

Grok afirma tener limitaciones para evitar generar contenido pornográfico, violento o que promueva actividades peligrosas. Sin embargo, las respuestas generadas pueden variar y no siempre reflejan reglas estrictas. Por ejemplo, imágenes de personajes conocidos o de eventos controversiales como Mickey Mouse con un gorro MAGA se han generado sin restricciones aparentes.

Casos de Uso y Controversias de las Imágenes Generadas por IA

Entre los ejemplos de imágenes generadas por Grok se encuentran:

  • Donald Trump vistiendo un uniforme nazi
  • Antifa golpeando a un oficial de policía
  • Taylor Swift sexy
  • Bill Gates oliendo una línea de cocaína
  • Barack Obama apuñalando a Joe Biden

Estos ejemplos han resaltado la falta de controles adecuados en la plataforma y han generado preocupaciones sobre los riesgos asociados con la IA generativa.

Comparativa con Otras Herramientas de Generación de Imágenes de IA

A diferencia de Grok, OpenAI y otras herramientas de generación de imágenes aplican reglas más estrictas y añaden marcas de agua a las imágenes generadas para evitar el mal uso. El enfoque relajado de Grok contrasta con las medidas más rigurosas de otras plataformas, como la pausa en las capacidades de generación de imágenes de Gemini de Google debido a problemas con estereotipos.

La llegada de la función de generación de imágenes de IA de Grok ocurre en un momento crítico, con la Comisión Europea investigando a X por posibles violaciones de la Ley de Seguridad Digital. Mientras tanto, el regulador Ofcom en el Reino Unido también se prepara para aplicar la Ley de Seguridad en Línea (OSA). La falta de salvaguardas efectivas en Grok podría tener implicaciones significativas para la regulación futura de la IA y la forma en que se modera el contenido en las redes sociales.

The post La Generadora de Imágenes de IA de X: Un Análisis de la Última Función de Grok appeared first on TecnoFuturo24.

]]>
https://tecnofuturo24.com/la-generadora-de-imagenes-de-ia-de-x-un-analisis-de-la-ultima-funcion-de-grok/feed/ 0
Los demócratas exigen a Sam Altman respuestas sobre la seguridad de OpenAI y los conflictos de interés https://tecnofuturo24.com/los-democratas-exigen-a-sam-altman-respuestas-sobre-la-seguridad-de-openai-y-los-conflictos-de-interes/ https://tecnofuturo24.com/los-democratas-exigen-a-sam-altman-respuestas-sobre-la-seguridad-de-openai-y-los-conflictos-de-interes/?noamp=mobile#respond Thu, 08 Aug 2024 17:13:26 +0000 https://tecnofuturo24.com/?p=7311 Los senadores Elizabeth Warren (D-MA) y Lori Trahan (D-MA) están solicitando respuestas…

The post Los demócratas exigen a Sam Altman respuestas sobre la seguridad de OpenAI y los conflictos de interés appeared first on TecnoFuturo24.

]]>
Los senadores Elizabeth Warren (D-MA) y Lori Trahan (D-MA) están solicitando respuestas de Sam Altman sobre el historial de seguridad de OpenAI, después de recibir quejas de empleados anteriores sobre la supresión de críticas internas. La carta de los legisladores cuestiona cómo OpenAI gestiona las denuncias y protege contra los conflictos de interés.

Los senadores mencionan varios incidentes que han puesto en duda los procedimientos de seguridad de OpenAI. Entre ellos, destacan la prueba en India de una versión no aprobada de GPT-4 en el motor de búsqueda Microsoft Bing en 2022, antes de recibir la aprobación del consejo de seguridad de OpenAI. También se refieren al breve despido de Altman en 2023 debido a las preocupaciones del consejo sobre la comercialización prematura de avances tecnológicos.

A pesar de las afirmaciones de OpenAI sobre su compromiso con la seguridad, informes de The Washington Post sugieren que la empresa aceleró las pruebas de seguridad y disolvió el equipo de Superalignment, responsable en parte de la seguridad. La portavoz de OpenAI, Lindsey Held, negó las acusaciones y aseguró que la empresa no comprometió sus procesos de seguridad.

En respuesta a las críticas, OpenAI ha anunciado una asociación con el Laboratorio Nacional de Los Álamos para investigar cómo los modelos de IA pueden apoyar la investigación bioscientífica de manera segura. Además, Altman reveló que el 20% de los recursos informáticos de OpenAI se dedicarán a la seguridad, y que la empresa ha eliminado cláusulas de no difamación y disposiciones que permitían la cancelación de equidad adquirida.

Los legisladores Warren y Trahan también han solicitado información sobre la nueva línea de seguridad para empleados y cómo se gestionan los informes de seguridad. La carta exige un “recuento detallado” de los incidentes en los que los productos de OpenAI han evadido los protocolos de seguridad, y detalles sobre la política de conflictos de interés de la empresa. Solicitaron a Altman que responda antes del 22 de agosto.

En California, estado natal de OpenAI, el senador Scott Wiener está promoviendo una legislación para regular los grandes modelos de lenguaje, responsabilizando legalmente a las empresas por el uso perjudicial de la IA. Esta legislación refleja las preocupaciones expresadas por Altman sobre los riesgos de la IA para la seguridad pública y nacional.

The post Los demócratas exigen a Sam Altman respuestas sobre la seguridad de OpenAI y los conflictos de interés appeared first on TecnoFuturo24.

]]>
https://tecnofuturo24.com/los-democratas-exigen-a-sam-altman-respuestas-sobre-la-seguridad-de-openai-y-los-conflictos-de-interes/feed/ 0
Senadores Introducen el COPIED Act para Proteger Contenido de IA https://tecnofuturo24.com/senadores-introducen-el-copied-act-para-proteger-contenido-de-ia/ https://tecnofuturo24.com/senadores-introducen-el-copied-act-para-proteger-contenido-de-ia/?noamp=mobile#respond Thu, 11 Jul 2024 23:13:15 +0000 https://tecnofuturo24.com/?p=6393 Un grupo bipartidista de senadores ha presentado el COPIED Act, un proyecto…

The post Senadores Introducen el COPIED Act para Proteger Contenido de IA appeared first on TecnoFuturo24.

]]>
Un grupo bipartidista de senadores ha presentado el COPIED Act, un proyecto de ley diseñado para autenticar y detectar contenido generado por inteligencia artificial (IA). El acta busca proteger a periodistas y artistas al prevenir el uso no autorizado de sus trabajos por parte de modelos de IA.

El Instituto Nacional de Estándares y Tecnología (NIST) sería dirigido a establecer estándares y directrices para verificar el origen del contenido y detectar manipulaciones, como el uso de marcas de agua. Además, se requeriría que las herramientas de IA destinadas a contenido creativo o periodístico permitan a los usuarios adjuntar información sobre su origen, protegiéndola de la eliminación.

Los propietarios de contenido, como radiodifusores y artistas, tendrían el derecho de demandar a empresas que utilicen sus materiales sin permiso o manipulen marcadores de autenticación. Esta legislación también permitiría a fiscales generales estatales y a la Comisión Federal de Comercio hacer cumplir la ley.

Organizaciones como SAG-AFTRA, la Recording Industry Association of America, y la News/Media Alliance han aplaudido la iniciativa, destacando la importancia de una cadena de suministro transparente para la IA generativa y el contenido que crea.

“La capacidad de la IA para recrear digitalmente a artistas plantea amenazas económicas y reputacionales significativas”, dijo Duncan Crabtree-Ireland de SAG-AFTRA. “Es fundamental establecer medidas para proteger el control sobre el uso de rostros y voces”.

The post Senadores Introducen el COPIED Act para Proteger Contenido de IA appeared first on TecnoFuturo24.

]]>
https://tecnofuturo24.com/senadores-introducen-el-copied-act-para-proteger-contenido-de-ia/feed/ 0