Meta, la gigante tecnológica de Silicon Valley, ha dado un gran paso en el campo de la inteligencia artificial con el lanzamiento de su nueva colección de modelos de IA Llama 4. Esta nueva serie de modelos, que ahora alimentan al asistente de Meta AI en la web, así como en plataformas populares como WhatsApp, Messenger e Instagram, promete revolucionar la forma en que las empresas y los desarrolladores interactúan con la inteligencia artificial. Meta ha lanzado dos modelos iniciales: Llama 4 Scout y Llama 4 Maverick, con una tercera versión aún en desarrollo, llamada Llama 4 Behemoth, que promete ser el modelo más avanzado hasta la fecha.
La compañía ha afirmado que estos nuevos modelos son superiores a los modelos de IA más avanzados de OpenAI y Google en una amplia gama de métricas, lo que marca un hito importante en la competencia en el mundo de la inteligencia artificial generativa. A continuación, analizamos en detalle qué hace a los modelos Llama 4 tan especiales y cómo se comparan con otras tecnologías de vanguardia en la actualidad.
El lanzamiento de Llama 4: la nueva serie de modelos de Meta
Meta ha revelado dos nuevos modelos de inteligencia artificial que han sido diseñados para llevar la IA generativa al siguiente nivel. Los dos modelos iniciales lanzados son Llama 4 Scout y Llama 4 Maverick, y Meta promete que, a pesar de sus diferencias de tamaño y complejidad, ambos superan a los modelos de IA más avanzados de Google y OpenAI en una variedad de pruebas.
-
Llama 4 Scout: Este modelo es la versión más pequeña y ligera de la nueva serie. Aunque compacto, Llama 4 Scout es capaz de ejecutar tareas complejas de inteligencia artificial gracias a su arquitectura innovadora. Con un contexto de 10 millones de tokens, que es la memoria operativa que utiliza el modelo, Llama 4 Scout se presenta como un modelo extremadamente eficiente que puede ser ejecutado incluso en una sola unidad de procesamiento gráfico Nvidia H100, una de las GPUs más potentes del mercado. Este modelo ha sido capaz de superar a otros modelos populares como Gemma 3 y Gemini 2.0 Flash-Lite de Google, así como al modelo Mistral 3.1 de código abierto, en una amplia gama de benchmarks reportados por la industria. Su capacidad para hacer todo esto en una GPU de una sola unidad es un logro notable, lo que demuestra la eficiencia y versatilidad de este modelo.
-
Llama 4 Maverick: El segundo modelo lanzado, Llama 4 Maverick, es mucho más grande y potente que Scout, y está diseñado para competir directamente con modelos como GPT-4o de OpenAI y Gemini 2.0 Flash de Google. Llama 4 Maverick ha sido optimizado para tareas de razonamiento y codificación, mostrando un rendimiento comparable con DeepSeek-V3 en estos campos, pero utilizando menos de la mitad de los parámetros activos. Este modelo ha impresionado por su capacidad de manejar tareas complejas, lo que lo coloca como una de las opciones más robustas del mercado.
-
Llama 4 Behemoth: Aunque aún no ha sido lanzado, Llama 4 Behemoth es la versión más grande y avanzada de la nueva serie. Según Meta, este modelo será el más potente de todos, con 288 mil millones de parámetros activos y un total de 2 billones de parámetros. Aunque todavía está en proceso de entrenamiento, Meta asegura que Llama 4 Behemoth será capaz de superar a sus competidores, como GPT-4.5 y Claude Sonnet 3.7, en varios benchmarks de STEM (ciencia, tecnología, ingeniería y matemáticas). Meta describe a Llama 4 Behemoth como “el modelo base de mayor rendimiento del mundo”, lo que pone de relieve sus aspiraciones de liderar el campo de la inteligencia artificial generativa.
La arquitectura de “mezcla de expertos” en Llama 4
Una de las innovaciones más destacadas en la serie Llama 4 es el uso de la arquitectura de “mezcla de expertos” (MoE, por sus siglas en inglés). Esta arquitectura permite que el modelo utilice solo las partes que son necesarias para realizar una tarea específica, lo que optimiza el uso de recursos y mejora la eficiencia del modelo. En lugar de activar todo el conjunto de parámetros para cada tarea, la arquitectura MoE activa solo un subconjunto de parámetros, lo que reduce la cantidad de recursos necesarios y aumenta la eficiencia. Esta metodología es particularmente útil para tareas de IA generativa, donde los modelos pueden ser extremadamente grandes y costosos en términos de potencia de cálculo.
La adopción de la arquitectura MoE permite a Meta ofrecer modelos que son tanto poderosos como eficientes, lo que es crucial para hacer que la inteligencia artificial generativa sea más accesible y útil para una variedad de aplicaciones, desde la asistencia al cliente hasta el análisis de datos y la creación de contenido.
Comparativa de Llama 4 con OpenAI y Google
Meta ha destacado que sus nuevos modelos Llama 4 son superiores en diversos benchmarks a los modelos más avanzados de OpenAI y Google. En particular, Meta ha afirmado que Llama 4 Scout supera a modelos de Google como Gemini 3 y Gemini 2.0 Flash-Lite en una serie de métricas clave. Además, el modelo Llama 4 Maverick ha demostrado rendir al mismo nivel que el modelo GPT-4o de OpenAI en tareas complejas de razonamiento y codificación, a pesar de utilizar menos parámetros activos.
Uno de los aspectos clave que diferencia a Llama 4 de otros modelos en el mercado es la eficiencia. Meta ha logrado crear modelos que pueden realizar tareas complejas utilizando una cantidad significativamente menor de parámetros activos que sus competidores. Esto significa que los modelos de Meta no solo son potentes, sino también más eficientes en cuanto a recursos, lo que podría llevar a una mayor adopción de estas tecnologías en una variedad de aplicaciones.
Licencia y acceso a Llama 4
A pesar de las mejoras significativas en términos de rendimiento, la serie Llama 4 ha generado algunas críticas debido a las restricciones de licencia que Meta ha implementado. Aunque la compañía describe sus modelos como “de código abierto”, Llama 4 no está completamente libre de restricciones, ya que requiere que las entidades comerciales con más de 700 millones de usuarios activos mensuales soliciten permiso a Meta antes de poder utilizar los modelos. Este tipo de licencias ha sido criticado por algunos defensores del software libre, como la Open Source Initiative, que argumentan que estas restricciones hacen que Llama 4 no se ajuste completamente a la definición de “código abierto”.
Sin embargo, Meta sigue insistiendo en que la apertura de sus modelos sigue siendo un paso importante hacia un ecosistema de IA más accesible y transparente. La compañía también ha señalado que su enfoque en la licencia está destinado a proteger el uso indebido de los modelos y garantizar que las empresas que los utilicen sean responsables de su implementación.
¿Qué sigue para Meta y la inteligencia artificial?
Meta ha anunciado que ofrecerá más detalles sobre sus futuros planes de inteligencia artificial durante su conferencia LlamaCon, que se celebrará el 29 de abril de 2025. Durante este evento, la compañía probablemente compartirá más información sobre cómo planea evolucionar la serie Llama y sus otros productos de IA. Se espera que Meta también revele más detalles sobre las capacidades de Llama 4 Behemoth y sus planes para hacer que la inteligencia artificial sea más accesible y útil para una amplia gama de usuarios.
En resumen, Meta ha dado un gran paso con el lanzamiento de los modelos Llama 4, que no solo compiten con las tecnologías líderes de OpenAI y Google, sino que también ofrecen una nueva perspectiva sobre cómo los modelos de inteligencia artificial pueden ser tanto poderosos como eficientes. A medida que Meta continúa desarrollando y mejorando su tecnología de inteligencia artificial, se espera que sus modelos Llama se conviertan en una opción preferida para desarrolladores y empresas que buscan aprovechar el poder de la inteligencia artificial generativa.