💡 Resumen (TL;DR):
- Mistral AI liberó bajo licencia Apache 2.0 los modelos Leanstral y Mistral Small 4.
- Leanstral supera a Claude Sonnet 4.6 en evaluaciones matemáticas costando solo $36 dólares frente a $549.
- La empresa francesa se integró como miembro fundador a la Coalición Nemotron de NVIDIA.
La compañía francesa Mistral AI presentó este 16 de marzo dos nuevos modelos de inteligencia artificial de código abierto: Leanstral y Mistral Small 4. Este lanzamiento llega acompañado de un movimiento estratégico en la industria del hardware, ya que la empresa confirmó su integración como miembro fundador de la Coalición Nemotron de NVIDIA para co-desarrollar modelos frontera abiertos.
Leanstral es un agente de código diseñado específicamente para tareas de ingeniería en el asistente de pruebas Lean 4. El modelo utiliza una arquitectura dispersa de mezcla de expertos (MoE) con 120,000 millones de parámetros en total, pero activa únicamente 6,000 millones para mantener la eficiencia operativa.
Durante la prueba FLTEval, Leanstral superó a modelos más grandes como GLM5-744B y Kimi-K2.5 con una sola pasada de inferencia. La diferencia de costos frente a la competencia es drástica: Leanstral logró una puntuación de 26.3 por $36 dólares, mientras que Claude Sonnet 4.6 obtuvo 23.7 por $549 dólares. Aunque Claude Opus 4.6 lidera en calidad con 39.6 puntos, su ejecución exige $1,650 dólares.

Mistral Small 4 y el hardware corporativo
Por su parte, Mistral Small 4 unifica capacidades de instrucción, razonamiento y código sin requerir enrutamiento entre modelos separados. Emplea 119,000 millones de parámetros (6,500 millones activos por token) y ofrece una ventana de contexto de 256,000 tokens.
- Velocidad: Reduce el tiempo de finalización en un 40% frente a Mistral Small 3.
- Rendimiento: Maneja el triple de solicitudes por segundo en configuraciones optimizadas para procesamiento masivo.
- Eficiencia: Iguala o supera a GPT-OSS 120B en pruebas como LiveCodeBench generando un 20% menos de texto.
Para ejecutar Mistral Small 4 de forma local (self-hosting), las empresas requieren hardware de grado corporativo, exigiendo un mínimo de cuatro GPUs NVIDIA H100 para poder mantener todos los parámetros alojados en la memoria.
Como parte de la Coalición Nemotron, Mistral aportará sus técnicas de entrenamiento multimodales para desarrollar modelos base utilizando la infraestructura NVIDIA DGX Cloud. “Los modelos frontera abiertos son la forma en que la IA se convierte en una verdadera plataforma”, declaró Arthur Mensch, CEO de Mistral. “Junto con NVIDIA, asumiremos un papel de liderazgo en el entrenamiento y avance de modelos frontera a gran escala”.