Together AI suma modelo de Alibaba que supera a OpenAI

Together AI suma modelo de Alibaba que supera a OpenAI

Together AI integra el Qwen3.5-9B de Alibaba, un modelo compacto que supera a OpenAI con 13 veces menos parámetros.

Por Humberto Toledo el 12 marzo, 2026 a las 12:42

💡 Resumen (TL;DR):

  • Together AI habilitó el modelo Qwen3.5-9B de Alibaba en su plataforma con capacidades multimodales nativas.
  • Este modelo es 13 veces más pequeño que gpt-oss-120b de OpenAI, pero lo superó con un puntaje de 81.7 en la prueba GPQA Diamond.
  • El éxito técnico quedó opacado por la renuncia de Junyang Lin, líder técnico del proyecto, tras una fuerte reestructuración interna.

Together AI anunció el 12 de marzo la disponibilidad inmediata del modelo Qwen3.5-9B de Alibaba dentro de su plataforma en infraestructura serverless y dedicada. Este lanzamiento otorga a los desarrolladores una herramienta multimodal de alto rendimiento que acaba de vencer a competidores de gran escala en pruebas de eficiencia de hardware.

Qwen3.5-9B es un modelo de lenguaje de código abierto que procesa texto, imagen y video de forma nativa desde una computadora tradicional, operando bajo la licencia Apache 2.0.

Los datos de rendimiento exponen un avance directo en compresión. A pesar de tener 13 veces menos parámetros que gpt-oss-120b de OpenAI, el modelo de Alibaba logró 81.7 puntos en el benchmark de razonamiento GPQA Diamond, superando el 80.1 de su rival.

La superioridad técnica se repitió en el resto de los análisis. En MMLU-Pro obtuvo 82.5 contra 80.8; en conocimiento multilingüe (MMMLU) logró 81.2 frente a 78.2; y en razonamiento visual (MMMU-Pro) registró una ventaja sólida de 70.1 contra 59.7.

A través de LinkedIn, Together AI confirmó que el sistema gestiona una ventana de contexto de 262,000 tokens, soporta 201 idiomas e incorpora la función nativa de tool-calling para flujos de trabajo con agentes autónomos.

Together AI suma modelo de Alibaba que supera a OpenAI

Fuga de talento en Tongyi Lab

  • La serie de modelos compactos Qwen3.5 (conformada por versiones de 0.8B, 2B, 4B y 9B) se liberó el 2 de marzo.
  • La familia de código abierto Qwen ya superó las 300 millones de descargas globales proyectadas para inicios de 2026.
  • Un día después del lanzamiento, el líder técnico del equipo, Junyang Lin, entregó su renuncia.
  • El 4 de marzo, Lin publicó en la red social X: “renuncio. adiós mi amado qwen”.

La salida de Lin, reconocido como uno de los directivos nivel P10 más jóvenes en la historia de Alibaba, desató una reacción en cadena. Ese mismo día renunció Yu Bowen, supervisor del área de post-entrenamiento, agravando el vacío que dejó en enero el investigador de código Hui Binyuan.

De acuerdo con reportes de LatePost, las renuncias masivas respondieron a una reestructuración impuesta en Tongyi Lab. Alibaba ordenó dividir al equipo de Qwen en cuatro grupos operativos: pre-entrenamiento, post-entrenamiento, infraestructura y fine-tuning.

Esta medida fracturó la estructura original y redujo drásticamente la autoridad técnica de Lin, quien rechazó las contraofertas de la directiva y cerró definitivamente su ciclo en la empresa.

FUENTE

Contenido recomendado