08/04/2025 02:31
08/04/2025 02:30
08/04/2025 02:22
08/04/2025 02:16
08/04/2025 02:09
08/04/2025 02:08
08/04/2025 02:07
08/04/2025 02:06
08/04/2025 02:05
08/04/2025 02:05
Concordia » Diario el Sol
Fecha: 07/04/2025 18:51
Meta ha anunciado Llama 4 (Large Language Model Meta AI), la nueva generación de su línea de modelos de inteligencia artificial. Esta edición está compuesta por tres variantes —Scout, Maverick y Behemoth— desarrolladas con avances en razonamiento, procesamiento de información y eficiencia computacional. Desde su lanzamiento en 2023, Meta ha introducido actualizaciones progresivas en su línea de modelos Llama, incluyendo Llama 2 y Llama 3.1, con mejoras en eficiencia, capacidad de contexto y soporte multilingüe. Llama 4 Behemoth es la versión más robusta de la nueva generación de modelos de inteligencia artificial de Meta. Esta nueva generación, desarrollada bajo la dirección de Mark Zuckerberg, optimiza la arquitectura de versiones anteriores e incorpora mejoras en el procesamiento de lenguaje natural, así como en la capacidad de interpretar texto e imágenes de forma integrada. Además, mantiene la compatibilidad con el ecosistema Llama, facilitando su implementación en desarrollos personalizados por parte de empresas y desarrolladores. Scout y Maverick: dos modelos diseñados para tareas específicas Dentro de la nueva línea Llama 4, los modelos Scout y Maverick introducen una arquitectura más eficiente basada en la técnica de mezcla de expertos (Mixture of Experts, MoE). Esta tecnología permite activar únicamente los componentes del modelo necesarios para cada tarea, optimizando el uso de recursos sin afectar su rendimiento. Llama 4 Scout está diseñado con 17 mil millones de parámetros activos distribuidos entre 16 expertos, y puede ejecutarse en una sola GPU Nvidia H100. Gracias a su amplia ventana de contexto de 10 millones de tokens, es especialmente eficaz en tareas como la síntesis de documentos extensos, el análisis personalizado de datos y el razonamiento aplicado sobre grandes bases de código. Según Meta, su rendimiento supera al de otros modelos como Gemma 3, Gemini 2.0 Flash-Lite y Mistral 3.1. Por su parte, Llama 4 Maverick, también opera con 17 mil millones de parámetros, pero incorpora 128 expertos, lo que le da mayor robustez y precisión. Está pensado para funcionar en un entorno Nvidia H100 DGX, y destaca en tareas complejas como la comprensión simultánea de texto e imágenes, la codificación avanzada, el análisis multilingüe y la gestión de contextos extensos. Meta asegura que este modelo ofrece resultados comparables o superiores a los de DeepSeek-V3, GPT-4o y Gemini 2.0, especialmente en razonamiento lógico, evaluación de imágenes y procesamiento multimodal. Behemoth: el modelo más avanzado de Meta Llama 4 Behemoth es la versión más robusta de la nueva generación de modelos de inteligencia artificial de Meta. Con 288 mil millones de parámetros activos y una arquitectura basada en 16 expertos, este modelo está diseñado para ofrecer un rendimiento superior en tareas complejas de procesamiento de lenguaje y razonamiento técnico. Aunque aún se encuentra en fase de entrenamiento, Meta señala que Behemoth ya supera a modelos de referencia como GPT-4.5 (OpenAI), Claude Sonnet 3.7 (Anthropic) y Gemini 2.0 Pro (Google), especialmente en pruebas especializadas en matemáticas, ciencias y razonamiento lógico, como MATH-500 y GPQA Diamond. Además de su alto rendimiento, la compañía indica que Behemoth servirá como base para el desarrollo de futuras generaciones de sistemas de inteligencia artificial. Disponibilidad y próximos anuncios Los modelos Scout y Maverick ya están disponibles para descarga a través de plataformas como Hugging Face y llama.com, lo que permite a desarrolladores e investigadores integrarlos en proyectos propios. También se pueden utilizar directamente en productos de Meta como WhatsApp, Messenger, Instagram Direct y el sitio web de Meta AI. Además, la compañía celebrará el 29 de abril su conferencia LlamaCon, donde se presentarán detalles técnicos adicionales sobre Llama 4 y se expondrá la proyección futura de esta tecnología dentro del ecosistema de inteligencia artificial de Meta. suma tu opinión
Ver noticia original