Hugging Face Archives - TecnoFuturo24 https://tecnofuturo24.com/tag/hugging-face/ El futuro de la tecnología en un solo lugar. Tech News. Mon, 21 Apr 2025 09:08:21 +0000 en-US hourly 1 https://wordpress.org/?v=6.9.4 https://tecnofuturo24.com/wp-content/uploads/2024/01/cropped-cropped-TecnoFuturo24Box-32x32.jpeg Hugging Face Archives - TecnoFuturo24 https://tecnofuturo24.com/tag/hugging-face/ 32 32 Microsoft presenta BitNet b1.58 2B4T, un modelo de IA ultraligero que opera sin GPU y consume solo 400MB https://tecnofuturo24.com/microsoft-presenta-bitnet-b1-58-2b4t-un-modelo-de-ia-ultraligero-que-opera-sin-gpu-y-consume-solo-400mb/ Mon, 21 Apr 2025 09:08:21 +0000 https://tecnofuturo24.com/?p=13068 En el competitivo mundo de la inteligencia artificial, donde la tendencia ha…

The post Microsoft presenta BitNet b1.58 2B4T, un modelo de IA ultraligero que opera sin GPU y consume solo 400MB appeared first on TecnoFuturo24.

]]>
En el competitivo mundo de la inteligencia artificial, donde la tendencia ha sido desarrollar modelos cada vez más grandes y dependientes de potentes GPUs para lograr un rendimiento óptimo, Microsoft ha sorprendido al mundo tecnológico con la presentación de BitNet b1.58 2B4T, un modelo de lenguaje que no solo desafía esta norma, sino que abre la puerta a una nueva era en la computación de inteligencia artificial.

BitNet b1.58 2B4T no es simplemente un nuevo modelo, es una apuesta por la eficiencia. Su arquitectura permite operar con apenas 400MB de memoria y prescinde de costosos aceleradores como las GPUs, algo que hasta ahora se consideraba indispensable para modelos de gran escala con dos mil millones de parámetros. Este avance es resultado directo de una profunda investigación en métodos de cuantificación y optimización de peso, llevada a cabo por el equipo de General Artificial Intelligence de Microsoft.

La clave está en la cuantificación ternaria

A diferencia de los modelos tradicionales que dependen de representaciones numéricas en punto flotante de 16 o 32 bits para cada peso, BitNet adopta un método completamente diferente: la cuantificación ternaria. En lugar de almacenar un número decimal de alta precisión, cada peso del modelo es representado utilizando uno de tres valores posibles: -1, 0 o +1.

Esta estrategia, aunque simple en concepto, es una auténtica hazaña en la práctica, ya que permite que cada peso sea almacenado en apenas 1.58 bits, reduciendo drásticamente el tamaño total del modelo y su huella de memoria. Lo que antes parecía una limitante se ha transformado en una ventaja competitiva, abriendo el camino para ejecutar modelos complejos en hardware convencional, sin necesidad de equipos dedicados o especializados.

Entrenamiento a escala masiva: compensando la baja precisión

El desarrollo de BitNet no solo fue una cuestión de arquitectura ligera. Para suplir la precisión que se pierde al limitar los pesos a solo tres valores posibles, Microsoft entrenó a BitNet b1.58 2B4T en un conjunto de datos colosal: nada menos que cuatro billones de tokens. Esta cantidad de datos es aproximadamente equivalente a la información contenida en 33 millones de libros, lo que garantiza que el modelo esté expuesto a una riqueza lingüística y contextual sin precedentes.

Este volumen de entrenamiento no solo compensa la reducción en precisión, sino que le otorga al modelo la capacidad de realizar tareas complejas y de responder de manera eficiente a desafíos que requieren comprensión contextual, razonamiento de sentido común y habilidades aritméticas básicas.

Un rendimiento sorprendente en tareas clave

Los resultados de las pruebas de rendimiento han sido impresionantes. BitNet b1.58 2B4T ha sido evaluado utilizando benchmarks estándar de la industria, que incluyen desde la resolución de problemas matemáticos de nivel escolar hasta preguntas que requieren razonamiento contextual y lógico.

En muchos de estos desafíos, BitNet no solo ha mantenido el tipo frente a modelos como Meta Llama 3.2 1B, Google Gemma 3 1B y Alibaba Qwen 2.5 1.5B, sino que incluso ha conseguido superarlos en tareas específicas, demostrando que una arquitectura eficiente no necesariamente debe traducirse en un rendimiento limitado.

Este equilibrio entre eficiencia y rendimiento es lo que ha generado tanto entusiasmo en la comunidad tecnológica, especialmente en un momento donde el costo y la huella ecológica de los grandes modelos de IA han sido cuestionados debido a sus altos requerimientos energéticos y de hardware.

Memoria optimizada: solo 400MB

Uno de los aspectos más llamativos de BitNet es su capacidad para operar con apenas 400MB de memoria, una cifra que representa menos de un tercio de la que requieren modelos comparables. Esto permite su ejecución fluida en CPUs estándar, incluyendo incluso procesadores de uso doméstico como el Apple M2.

Esta accesibilidad implica que la inteligencia artificial avanzada ya no estará limitada a grandes centros de datos o empresas tecnológicas con vastos recursos, sino que podrá desplegarse en dispositivos comunes, desde computadoras personales hasta soluciones integradas en electrónica de consumo.

bitnet.cpp: el framework detrás de la eficiencia

Para explotar todo el potencial de BitNet, Microsoft ha desarrollado un marco de software específico llamado bitnet.cpp. Esta herramienta ha sido diseñada para maximizar la velocidad y minimizar el uso de recursos al momento de realizar inferencias con el modelo.

Bitnet.cpp es una pieza clave, ya que las bibliotecas de IA convencionales, como Hugging Face Transformers, no están preparadas para manejar eficientemente modelos que utilizan pesos ternarios. Por ello, bitnet.cpp ha sido construido desde cero con la misión de garantizar una integración perfecta con CPUs, optimizando tanto el uso de memoria como la velocidad de cálculo.

El código de bitnet.cpp se encuentra disponible en GitHub, lo que permite a desarrolladores y empresas experimentar con esta tecnología sin restricciones. Microsoft también ha confirmado que en futuras actualizaciones se añadirá soporte para otros tipos de procesadores, ampliando aún más el abanico de dispositivos compatibles.

Menor consumo energético y sostenibilidad

Además de su rendimiento técnico, BitNet destaca por su eficiencia energética. Los modelos tradicionales, al depender de cálculos en punto flotante de alta precisión y hardware especializado como GPUs, consumen cantidades significativas de energía, lo que se traduce en altos costos operativos y una mayor huella de carbono.

BitNet, en cambio, se apoya en operaciones matemáticas mucho más simples, donde predominan las sumas en lugar de las multiplicaciones, y donde la arquitectura de pesos ternarios reduce la carga computacional de manera drástica. Según las estimaciones de los investigadores de Microsoft, el modelo consume entre un 85% y un 96% menos energía que sus homólogos de precisión completa, algo que podría marcar una diferencia sustancial en la adopción global de modelos de IA de gran escala.

Esta eficiencia no solo tiene beneficios económicos para empresas y usuarios, sino que también plantea una alternativa más respetuosa con el medio ambiente en un sector donde la sostenibilidad se ha convertido en una preocupación creciente.

Limitaciones actuales y potencial de desarrollo

Si bien BitNet b1.58 2B4T ha demostrado ser una solución innovadora y eficiente, aún presenta algunas limitaciones. Actualmente su ventana de contexto —la cantidad de texto que puede procesar de manera simultánea— es menor que la de algunos de los modelos más avanzados. Esto restringe, en cierta medida, su aplicabilidad en tareas que requieren comprensión o generación de textos extensos.

Además, debido a su diseño altamente especializado, BitNet requiere obligatoriamente el uso del framework bitnet.cpp para funcionar de manera óptima, lo que limita su integración inmediata con otras plataformas de IA de uso masivo.

No obstante, el equipo de investigación de Microsoft ya está trabajando en extender las capacidades del modelo. Los planes incluyen la ampliación de la ventana de contexto, la compatibilidad con una gama más amplia de dispositivos y la incorporación de soporte para múltiples idiomas, lo que permitirá que BitNet sea aún más versátil y útil en contextos globales.

Un cambio de paradigma en inteligencia artificial

La creación de BitNet no solo demuestra que es posible construir modelos más eficientes, sino que también redefine las expectativas sobre qué tipo de hardware es realmente necesario para aprovechar la inteligencia artificial moderna.

En un mundo donde los grandes modelos de lenguaje suelen asociarse con grandes centros de datos, infraestructura costosa y enormes requerimientos energéticos, BitNet propone un enfoque diferente: modelos entrenados desde cero con estructuras simplificadas que puedan ser ejecutados localmente en dispositivos al alcance de cualquier usuario o empresa.

Este cambio tiene implicaciones profundas, ya que podría democratizar la adopción de la inteligencia artificial, permitiendo que pequeñas empresas, desarrolladores independientes e incluso instituciones educativas puedan acceder a herramientas antes reservadas para gigantes tecnológicos con presupuestos multimillonarios.

Además, al reducir la necesidad de procesamiento en la nube, BitNet también plantea una solución a los crecientes problemas de latencia y privacidad que han surgido con la expansión de los servicios de IA en línea.

El impacto en la industria tecnológica

BitNet b1.58 2B4T se perfila como una tecnología disruptiva en múltiples sectores. Desde asistentes virtuales locales hasta soluciones de automatización en dispositivos con recursos limitados, las posibilidades de aplicación son amplias y variadas.

Empresas que desarrollan software para dispositivos móviles, IoT, automóviles inteligentes y sistemas embebidos encontrarán en BitNet una alternativa para integrar capacidades de lenguaje natural y toma de decisiones sin depender de conexiones constantes a servidores externos.

Asimismo, la industria educativa podría beneficiarse de modelos como BitNet para ofrecer experiencias de aprendizaje personalizadas que funcionen sin necesidad de hardware especializado, ampliando el acceso a herramientas de IA incluso en regiones con infraestructura tecnológica limitada.

Una visión a futuro

El desarrollo de BitNet b1.58 2B4T es solo el primer paso en lo que parece ser una transformación profunda en la forma en que entendemos y utilizamos la inteligencia artificial. Si bien el modelo todavía tiene limitaciones, su existencia prueba que la eficiencia y el rendimiento no son excluyentes.

El equipo de Microsoft continúa perfeccionando esta tecnología, y los próximos años podrían traer versiones aún más compactas, con mayor capacidad de razonamiento, soporte para tareas multimodales (texto, imagen, audio) y compatibilidad total con dispositivos móviles y sistemas embebidos.

La IA ya no será dominio exclusivo de grandes centros de datos, y modelos como BitNet están llamados a ser los pioneros de esta nueva etapa en la que la inteligencia artificial se integrará de manera natural en todo tipo de dispositivos, sin las barreras técnicas que hasta ahora imponían sus altos requisitos de hardware.

The post Microsoft presenta BitNet b1.58 2B4T, un modelo de IA ultraligero que opera sin GPU y consume solo 400MB appeared first on TecnoFuturo24.

]]>
Hugging Face adquiere Pollen Robotics para impulsar la robótica humanoide de código abierto https://tecnofuturo24.com/hugging-face-adquiere-pollen-robotics-para-impulsar-la-robotica-humanoide-de-codigo-abierto/ Tue, 15 Apr 2025 08:59:17 +0000 https://tecnofuturo24.com/?p=12911 En un movimiento estratégico que refuerza su compromiso con la inteligencia artificial…

The post Hugging Face adquiere Pollen Robotics para impulsar la robótica humanoide de código abierto appeared first on TecnoFuturo24.

]]>
En un movimiento estratégico que refuerza su compromiso con la inteligencia artificial (IA) abierta y colaborativa, la plataforma de desarrollo de IA Hugging Face ha adquirido Pollen Robotics, una startup francesa especializada en robótica humanoide. Esta adquisición, cuyo monto no ha sido revelado, tiene como objetivo principal potenciar el desarrollo y la accesibilidad de robots humanoides de código abierto, destacando especialmente el modelo Reachy 2.

Una alianza para democratizar la robótica

Pollen Robotics, fundada en 2016 por Matthieu Lapeyre y Pierre Rouanet, se ha destacado por su enfoque en la creación de robots accesibles y modulares. Su producto estrella, Reachy 2, es un robot humanoide completamente de código abierto, diseñado para realizar tareas domésticas y de manipulación de objetos en entornos reales. Con esta adquisición, Hugging Face planea no solo comercializar Reachy 2, sino también permitir que desarrolladores de todo el mundo descarguen y propongan mejoras en su código y diseño.

Características destacadas de Reachy 2

Reachy 2 es un robot humanoide que puede ser teleoperado o controlado mediante Python, funcionando sobre ROS2 Foxy. Entre sus características más notables se incluyen:

  • Brazos robóticos avanzados: Con 7 grados de libertad, sus brazos imitan las dimensiones y movimientos de un brazo humano adulto, capaces de levantar objetos de hasta 3 kg.

  • Base móvil: Equipado con una base móvil que facilita la navegación en espacios reducidos, gracias a sus ruedas omnidireccionales y sensores integrados.

  • Compatibilidad con aprendizaje automático: Su sistema está optimizado para implementar modelos de aprendizaje automático, permitiendo que el robot aprenda y mejore sus tareas con el tiempo.

  • Teleoperación mediante realidad virtual: Los usuarios pueden controlar a Reachy 2 de forma remota utilizando equipos de realidad virtual, lo que amplía sus aplicaciones en investigación y desarrollo.

Impacto en la comunidad de desarrollo

La decisión de mantener a Reachy 2 como un proyecto de código abierto refleja la filosofía compartida por Hugging Face y Pollen Robotics sobre la importancia de la transparencia y la colaboración en el avance tecnológico. Al abrir el acceso al código y al diseño de hardware, se fomenta una comunidad activa de desarrolladores que pueden adaptar y mejorar el robot según sus necesidades específicas.

Esta estrategia no solo acelera la innovación, sino que también garantiza que los avances en robótica sean accesibles para una audiencia más amplia, desde instituciones académicas hasta desarrolladores independientes.

Aplicaciones y casos de uso

Reachy 2 ha sido adoptado por diversas instituciones y empresas para una variedad de aplicaciones, incluyendo:

  • Investigación académica: Universidades como Cornell y Carnegie Mellon han utilizado a Reachy 2 en proyectos de investigación en robótica e IA.

  • Atención sanitaria: Su capacidad para interactuar de manera segura con humanos lo hace ideal para tareas de asistencia en entornos médicos.

  • Retail y servicios: Empresas han explorado su uso en atención al cliente y tareas logísticas dentro de tiendas y almacenes.

Futuro de la robótica con Hugging Face

Con la incorporación de Pollen Robotics, Hugging Face refuerza su posición en el ámbito de la robótica, integrando capacidades avanzadas de IA en plataformas físicas. La empresa ya había iniciado esfuerzos en este campo con su programa “Le Robot”, liderado por Remi Cadene, exingeniero de Tesla. La sinergia entre ambas compañías promete acelerar el desarrollo de robots humanoides que puedan aprender y adaptarse a tareas complejas en entornos reales.

El compromiso de Hugging Face con el código abierto y la colaboración comunitaria establece un precedente en la industria, demostrando que la innovación en robótica puede ser inclusiva, ética y accesible para todos.

The post Hugging Face adquiere Pollen Robotics para impulsar la robótica humanoide de código abierto appeared first on TecnoFuturo24.

]]>
Hugging Face Reduce el Tamaño de Modelos de Visión AI a un Tamaño Compatible con Teléfonos Móviles https://tecnofuturo24.com/hugging-face-reduce-el-tamano-de-modelos-de-vision-ai-a-un-tamano-compatible-con-telefonos-moviles/ https://tecnofuturo24.com/hugging-face-reduce-el-tamano-de-modelos-de-vision-ai-a-un-tamano-compatible-con-telefonos-moviles/?noamp=mobile#respond Fri, 24 Jan 2025 20:10:54 +0000 https://tecnofuturo24.com/?p=10922 Introducción La inteligencia artificial (IA) ha avanzado a un ritmo impresionante en…

The post Hugging Face Reduce el Tamaño de Modelos de Visión AI a un Tamaño Compatible con Teléfonos Móviles appeared first on TecnoFuturo24.

]]>
Introducción

La inteligencia artificial (IA) ha avanzado a un ritmo impresionante en los últimos años, brindando soluciones cada vez más sofisticadas a sectores de diversas industrias. Sin embargo, uno de los mayores desafíos que han enfrentado las empresas y desarrolladores es el costo de los recursos computacionales necesarios para entrenar y ejecutar modelos de IA de gran escala. Hugging Face, una de las principales empresas en el campo de la IA, ha logrado un hito importante al reducir el tamaño de sus modelos de visión AI, logrando que funcionen incluso en dispositivos tan pequeños como los teléfonos móviles, al mismo tiempo que superan el rendimiento de versiones previas que requerían grandes centros de datos.

Este avance se materializa en el nuevo modelo SmolVLM-256M de Hugging Face, que necesita menos de un gigabyte de memoria GPU y supera el rendimiento de su predecesor Idefics 80B, que tiene 300 veces más tamaño, con tan solo 17 meses de diferencia. Este notable recorte en el tamaño y la mejora en la capacidad marca un punto de inflexión en la implementación práctica de la IA. A continuación, analizaremos cómo esta innovadora tecnología puede beneficiar a las empresas, especialmente a aquellas con recursos limitados, y cómo Hugging Face ha logrado estos avances técnicos.

El Impacto de los Modelos de Visión AI Más Pequeños en el Mercado

En un momento en que las empresas luchan por enfrentar los costos astronómicos de implementar sistemas de IA, Hugging Face ha hecho una contribución significativa al desarrollo de modelos más pequeños y eficientes. Los nuevos modelos SmolVLM, disponibles en tamaños de 256M y 500M parámetros, permiten procesar imágenes y comprender contenido visual a velocidades previamente inalcanzables para su clase de tamaño.

El modelo más pequeño, el SmolVLM-256M, procesa 16 ejemplos por segundo mientras utiliza solo 15 GB de RAM con un tamaño de lote de 64, lo que lo convierte en una opción atractiva para empresas que buscan procesar grandes volúmenes de datos visuales. Según Andrés Marafioti, ingeniero de investigación en aprendizaje automático de Hugging Face, para una empresa de tamaño mediano que procesa 1 millón de imágenes al mes, este avance se traduce en un ahorro anual significativo en costos computacionales. El reducido espacio de memoria también permite que las empresas implementen estos modelos en instancias de nube más económicas, lo que reduce los costos de infraestructura de manera considerable.

Reducción de Tamaño y Mejora en el Rendimiento

Hugging Face ha logrado esta reducción de tamaño sin comprometer el rendimiento. La clave de este éxito radica en las innovaciones técnicas implementadas tanto en el procesamiento de la visión como en los componentes de lenguaje de los modelos. El equipo de Hugging Face hizo una transición de un codificador de visión de 400 millones de parámetros a una versión con solo 93 millones de parámetros, lo que resultó en una reducción significativa de los requisitos computacionales. Además, se implementaron técnicas de compresión de tokens más agresivas, lo que permitió mantener un alto nivel de rendimiento mientras se reducían las necesidades computacionales.

El resultado es un modelo que es más pequeño, pero que ofrece un rendimiento comparable a modelos mucho más grandes. Por ejemplo, el modelo SmolVLM-256M supera consistentemente al predecesor Idefics 80B, que tiene 80 mil millones de parámetros, en tareas clave de razonamiento visual, lo que demuestra la efectividad de estas mejoras técnicas.

Aplicaciones en el Mundo Real: Colaboraciones y Casos de Uso

El desarrollo de estos modelos más pequeños ha atraído la atención de grandes jugadores tecnológicos. IBM, por ejemplo, ha colaborado con Hugging Face para integrar el modelo SmolVLM-256M en Docling, su software de procesamiento de documentos. Aunque IBM tiene acceso a recursos computacionales sustanciales, el uso de modelos más pequeños como estos les permite procesar millones de documentos a una fracción del costo, lo que mejora la eficiencia operativa y reduce significativamente los gastos en infraestructura.

Este tipo de colaboraciones es solo el comienzo. El modelo SmolVLM también está impulsando capacidades avanzadas de búsqueda de documentos a través de ColiPali, un algoritmo que crea bases de datos buscables a partir de archivos de documentos. Según Marafioti, los modelos más pequeños ofrecen un rendimiento muy cercano al de los modelos 10 veces más grandes, pero con la ventaja de una velocidad significativamente mayor en la creación y búsqueda de bases de datos. Esta mejora hace que la búsqueda visual a nivel empresarial sea accesible para empresas de todos los tamaños, lo que podría transformar la forma en que las organizaciones manejan y procesan grandes volúmenes de información.

El Futuro de la IA: Oportunidades para Empresas Pequeñas y Startups

La reducción en el tamaño de los modelos de IA no solo ofrece ahorros significativos en costos de infraestructura, sino que también abre la puerta a nuevas oportunidades para startups y pequeñas empresas. Anteriormente, el alto costo de los recursos computacionales necesarios para implementar modelos sofisticados de visión artificial era un obstáculo insuperable para muchas de estas empresas. Sin embargo, con los nuevos modelos SmolVLM, las startups ahora pueden lanzar productos avanzados de visión por computadora en semanas en lugar de meses, lo que cambia por completo el panorama para las empresas emergentes.

Este avance podría ser transformador, especialmente para las empresas que buscan crear soluciones de IA personalizadas o desarrollar productos innovadores sin tener que preocuparse por los costos prohibitivos de la infraestructura. La posibilidad de ejecutar estos modelos en dispositivos más pequeños, como teléfonos móviles, también abre la puerta a aplicaciones innovadoras que antes no eran viables, lo que permite que las empresas lleguen a una base de usuarios más amplia y diversa.

Innovaciones Técnicas Clave en los Modelos SmolVLM

Los avances que han llevado a Hugging Face a reducir el tamaño de sus modelos sin perder rendimiento se deben a una serie de innovaciones técnicas. En primer lugar, el uso de un codificador de visión más eficiente, con menos parámetros, ha sido fundamental para reducir los requisitos de memoria y procesador. La implementación de técnicas de compresión de tokens también ha sido crucial, ya que permite representar grandes cantidades de información visual en un formato más compacto, lo que reduce aún más los recursos necesarios para el procesamiento.

Otro aspecto clave es la optimización de los modelos para que puedan ejecutarse en hardware de bajo consumo, como los teléfonos móviles, sin sacrificar la precisión. Este tipo de optimización es esencial para permitir que la IA esté disponible para un público más amplio, incluyendo usuarios individuales y pequeñas empresas que de otro modo no podrían acceder a tecnologías avanzadas de IA.

Conclusión: El Impacto de los Modelos SmolVLM en la Industria de la IA

La introducción de los modelos SmolVLM de Hugging Face marca un hito significativo en el campo de la inteligencia artificial, especialmente en el contexto de la visión artificial. Al reducir el tamaño de los modelos y mejorar su rendimiento, Hugging Face ha hecho que la IA avanzada sea más accesible para empresas de todos los tamaños, desde grandes corporaciones hasta pequeñas startups. La capacidad de ejecutar modelos sofisticados en dispositivos pequeños y asequibles, como teléfonos móviles, no solo reduce los costos operativos, sino que también abre nuevas posibilidades para aplicaciones innovadoras que pueden cambiar la forma en que las empresas procesan y entienden los datos visuales.

Con esta innovación, Hugging Face no solo está facilitando el acceso a la IA, sino que también está allanando el camino para un futuro en el que las soluciones de visión artificial sean más rápidas, económicas y fáciles de implementar, lo que permitirá a las empresas competir en un mercado global en constante evolución.

The post Hugging Face Reduce el Tamaño de Modelos de Visión AI a un Tamaño Compatible con Teléfonos Móviles appeared first on TecnoFuturo24.

]]>
https://tecnofuturo24.com/hugging-face-reduce-el-tamano-de-modelos-de-vision-ai-a-un-tamano-compatible-con-telefonos-moviles/feed/ 0
OpenAI enfrenta polémica tras la filtración de Sora, su generador de videos impulsado por inteligencia artificial https://tecnofuturo24.com/openai-enfrenta-polemica-tras-la-filtracion-de-sora-su-generador-de-videos-impulsado-por-inteligencia-artificial/ https://tecnofuturo24.com/openai-enfrenta-polemica-tras-la-filtracion-de-sora-su-generador-de-videos-impulsado-por-inteligencia-artificial/?noamp=mobile#respond Tue, 26 Nov 2024 22:00:18 +0000 https://tecnofuturo24.com/?p=9855 OpenAI, la empresa líder en inteligencia artificial conocida por desarrollar modelos avanzados…

The post OpenAI enfrenta polémica tras la filtración de Sora, su generador de videos impulsado por inteligencia artificial appeared first on TecnoFuturo24.

]]>
OpenAI, la empresa líder en inteligencia artificial conocida por desarrollar modelos avanzados como ChatGPT y DALL-E, se encuentra en el centro de una controversia luego de que un grupo autodenominado “Sora PR Puppets” filtrara acceso a su herramienta de generación de videos, Sora. Según reportes, el acceso no autorizado fue realizado en protesta contra las prácticas de OpenAI, a las que acusan de “lavado de imagen” y trato injusto hacia los artistas involucrados en el programa de pruebas tempranas de la herramienta.

Sora: Una herramienta revolucionaria con contratiempos

Desde su revelación inicial a principios de 2023, Sora ha sido promovido como una innovación en la generación de videos mediante IA. La herramienta promete crear videos de alta calidad, manteniendo estilos y personajes consistentes a partir de descripciones textuales. Sin embargo, Sora aún no se ha lanzado públicamente, ya que enfrenta desafíos técnicos y de escalabilidad.

Entre las dificultades iniciales reportadas, los videos generados por Sora requerían largos tiempos de procesamiento y mostraban inconsistencias en elementos clave, como estilos visuales y continuidad en los personajes. No obstante, una versión más reciente, apodada “Sora Turbo”, parece haber mejorado en velocidad y funcionalidad.

La filtración: Un acto de protesta

El 21 de noviembre, el grupo “Sora PR Puppets” publicó en la plataforma de desarrolladores Hugging Face un proyecto que daba acceso a Sora mediante un frontend personalizado. Según el grupo, utilizaron tokens de autenticación obtenidos, presumiblemente, del programa de acceso temprano de OpenAI. A través de esta herramienta, cualquier usuario podía generar videos de 10 segundos en resolución de hasta 1080p ingresando una breve descripción de texto.

En un comunicado adjunto al frontend, el grupo declaró que su acción buscaba exponer las presiones que OpenAI ejerce sobre los participantes del programa de acceso temprano, así como la falta de compensación justa por el trabajo creativo y técnico que realizan. “Cientos de artistas proporcionan trabajo no remunerado mediante pruebas, retroalimentación y experimentación para una empresa valorada en $150 mil millones”, escribió el grupo.

La respuesta de OpenAI

En menos de tres horas, OpenAI tomó medidas para revocar el acceso filtrado, dejando inactiva la herramienta en Hugging Face. Un portavoz de OpenAI confirmó que Sora sigue en etapa de “vista previa de investigación” y enfatizó que la participación en el programa es completamente voluntaria. “Cientos de artistas en nuestra alfa han moldeado el desarrollo de Sora, ayudando a priorizar nuevas características y medidas de seguridad”, afirmó el portavoz.

La empresa también destacó que ha ofrecido acceso gratuito a los participantes y ha apoyado a los artistas a través de subvenciones y eventos. Sin embargo, no se ofrecieron detalles específicos sobre qué constituye un uso “responsable” de Sora o qué información debe considerarse confidencial.

Un panorama complicado para OpenAI

La filtración de Sora ocurre en un momento crítico para OpenAI. La empresa ha enfrentado desafíos técnicos significativos en el desarrollo de la herramienta. Según Kevin Weil, director de producto de OpenAI, los problemas incluyen la necesidad de perfeccionar el modelo, resolver preocupaciones de seguridad y personalización, y escalar el poder computacional necesario.

Además, OpenAI ha perdido terreno frente a competidores en el sector de generación de videos por IA. Runway, por ejemplo, firmó un acuerdo con Lionsgate para entrenar un modelo personalizado utilizando el catálogo de películas del estudio, mientras que Stability AI ha incorporado a James Cameron, director de Avatar, como miembro de su junta directiva.

Por otro lado, OpenAI ha intentado establecer relaciones con cineastas y estudios de Hollywood, pero hasta ahora no ha anunciado colaboraciones concretas con grandes casas de producción. Aunque su presencia en eventos como el Festival de Cine de Cannes sugiere interés en este mercado, los desafíos técnicos y de percepción pública podrían complicar su avance.

¿Qué sigue para Sora y OpenAI?

A pesar de los contratiempos, Sora sigue siendo una herramienta con un potencial considerable en la industria creativa. OpenAI ha entrenado el modelo con millones de horas de clips de alta calidad que abarcan una amplia gama de estilos y temas, con el objetivo de mejorar la consistencia y la calidad de los videos generados.

Sin embargo, el éxito de Sora dependerá no solo de su desempeño técnico, sino también de la confianza que OpenAI pueda construir con los artistas y desarrolladores. Las acusaciones de trato injusto y control excesivo de las narrativas podrían afectar la percepción pública de la herramienta y su adopción en el mercado.

The post OpenAI enfrenta polémica tras la filtración de Sora, su generador de videos impulsado por inteligencia artificial appeared first on TecnoFuturo24.

]]>
https://tecnofuturo24.com/openai-enfrenta-polemica-tras-la-filtracion-de-sora-su-generador-de-videos-impulsado-por-inteligencia-artificial/feed/ 0
Hugging Face comparte $10 millones en GPU gratuitas para impulsar la innovación en IA https://tecnofuturo24.com/hugging-face-comparte-10-millones-en-gpu-gratuitas-para-impulsar-la-innovacion-en-ia/ https://tecnofuturo24.com/hugging-face-comparte-10-millones-en-gpu-gratuitas-para-impulsar-la-innovacion-en-ia/?noamp=mobile#respond Thu, 16 May 2024 19:40:25 +0000 https://tecnofuturo24.com/?p=4794 Descubre cómo Hugging Face está democratizando el acceso a la IA al…

The post Hugging Face comparte $10 millones en GPU gratuitas para impulsar la innovación en IA appeared first on TecnoFuturo24.

]]>
Descubre cómo Hugging Face está democratizando el acceso a la IA al compartir $10 millones en capacidad de cómputo a través de su programa ZeroGPU, ofreciendo una alternativa accesible para desarrolladores y startups.

Hugging Face, una de las principales empresas de aprendizaje automático, ha anunciado una inversión de $10 millones en GPU compartidas gratuitas para potenciar la creación de nuevas tecnologías de IA. Este compromiso tiene como objetivo nivelar el campo de juego para pequeños desarrolladores, académicos y startups, permitiéndoles competir con las grandes compañías tecnológicas en el ámbito de la inteligencia artificial.

Según Clem Delangue, CEO de Hugging Face, esta inversión es posible gracias a la rentabilidad de la empresa, que recientemente recaudó $235 millones en financiación, valorando la compañía en $4.5 mil millones. Delangue enfatiza la importancia de democratizar el acceso a la IA, ya que la centralización de los avances en esta área puede obstaculizar la innovación futura.

ZeroGPU, el programa de Hugging Face para compartir GPU, ofrece una solución rentable y eficiente en energía para construir grandes modelos de lenguaje. A través de Spaces de Hugging Face, los desarrolladores pueden acceder a estas GPU compartidas, eliminando la necesidad de comprometerse con proveedores de la nube a largo plazo y reduciendo así las barreras de entrada para pequeñas empresas y académicos.

Con la iniciativa de Hugging Face, la comunidad de desarrolladores de IA puede aprovechar al máximo los recursos computacionales necesarios para impulsar la innovación en un entorno más descentralizado. Esta apuesta por el código abierto y la colaboración refleja la visión de un mundo donde la IA está al alcance de todos, no solo de unos pocos privilegiados.

The post Hugging Face comparte $10 millones en GPU gratuitas para impulsar la innovación en IA appeared first on TecnoFuturo24.

]]>
https://tecnofuturo24.com/hugging-face-comparte-10-millones-en-gpu-gratuitas-para-impulsar-la-innovacion-en-ia/feed/ 0
Google y Hugging Face potencian la IA de código abierto con una “supercomputadora” https://tecnofuturo24.com/google-y-hugging-face-potencian-la-ia-de-codigo-abierto-con-una-supercomputadora/ https://tecnofuturo24.com/google-y-hugging-face-potencian-la-ia-de-codigo-abierto-con-una-supercomputadora/?noamp=mobile#respond Thu, 25 Jan 2024 19:18:58 +0000 https://tecnofuturo24.com/?p=1302 La alianza entre Google Cloud y Hugging Face brinda acceso a potentes…

The post Google y Hugging Face potencian la IA de código abierto con una “supercomputadora” appeared first on TecnoFuturo24.

]]>
La alianza entre Google Cloud y Hugging Face brinda acceso a potentes recursos de inteligencia artificial sin costo de suscripción.

Google Cloud y Hugging Face han unido fuerzas para democratizar el acceso a la inteligencia artificial de última generación. Esta colaboración ofrece a los desarrolladores la capacidad de construir, entrenar y desplegar modelos de IA sin la necesidad de una suscripción a Google Cloud. Ahora, gracias a esta asociación, los usuarios de Hugging Face pueden aprovechar la potencia de las unidades de procesamiento tensorial (TPU) de Google y las supercomputadoras GPU, incluyendo miles de H100s de Nvidia.

Hugging Face, conocido como uno de los principales repositorios de modelos de inteligencia artificial, alberga una amplia gama de modelos de código abierto, incluidos nombres destacados como Llama 2 de Meta y Stable Diffusion de Stability AI. Con más de 350,000 modelos disponibles, los desarrolladores tienen a su disposición una plataforma robusta para trabajar y colaborar en el desarrollo de nuevas soluciones de IA.

Esta colaboración estratégica entre Google y Hugging Face marca un hito importante en el impulso del desarrollo de la inteligencia artificial de código abierto. Google ha expresado su compromiso con el apoyo al ecosistema de código abierto de IA, lo que se refleja en su participación activa en esta asociación. Además, Google ha anunciado que los usuarios de Hugging Face pronto podrán acceder a herramientas avanzadas de desarrollo de aplicaciones de IA, como Vertex AI y Kubernetes Engine, lo que facilitará aún más el proceso de construcción y optimización de modelos.

La alianza entre Google Cloud y Hugging Face representa un paso significativo hacia adelante en el campo de la inteligencia artificial de código abierto. Al proporcionar acceso a recursos de vanguardia de forma gratuita, esta colaboración tiene el potencial de acelerar la innovación y fomentar el desarrollo de soluciones de IA más accesibles y poderosas.

The post Google y Hugging Face potencian la IA de código abierto con una “supercomputadora” appeared first on TecnoFuturo24.

]]>
https://tecnofuturo24.com/google-y-hugging-face-potencian-la-ia-de-codigo-abierto-con-una-supercomputadora/feed/ 0