Alibaba lanza la nueva generación de modelos base Qianwen 3.5, alcanzando la cima como el modelo de código abierto más potente del mundo

El 16 de febrero, día de la víspera de Año Nuevo, Alibaba open-sourcó la nueva generación de grandes modelos Qwen3.5-Plus, con un rendimiento comparable al Gemini 3 Pro, alcanzando la cima de los modelos de código abierto más potentes del mundo.

Se informa que Qwen3.5 ha logrado una renovación completa en la arquitectura del modelo subyacente. La versión lanzada, Qwen3.5-Plus, cuenta con un total de 397 mil millones de parámetros, con solo 17 mil millones activados, logrando una victoria con menos recursos y superando en rendimiento al modelo Qwen3-Max de más de un billón de parámetros. El uso de memoria de despliegue se redujo en un 60%, la eficiencia de inferencia se incrementó significativamente y el rendimiento máximo de procesamiento de inferencias puede aumentar hasta 19 veces. El precio de la API de Qwen3.5-Plus es de solo 0.8 yuanes por millón de tokens, lo que equivale a una décima parte de Gemini 3 Pro.

A diferencia de las generaciones anteriores de modelos de lenguaje de Qwen, Qwen3.5 logra una transición generacional de modelos puramente textuales a modelos multimodales nativos. Mientras que Qwen3 preentrenaba en tokens de texto puro, Qwen3.5 se basa en tokens combinados de visión y texto, además de incorporar de manera significativa datos en chino, multilingües, STEM y razonamiento, permitiendo que el gran modelo “que abre los ojos” aprenda conocimientos del mundo más densos y lógica de razonamiento. Con menos del 40% de los parámetros, alcanza un rendimiento superior al de Qwen3-Max, que tiene más de un billón de parámetros, en evaluaciones de referencia en razonamiento, programación y agentes inteligentes. Por ejemplo, en la evaluación MMLU-Pro de razonamiento del conocimiento, Qwen3.5 obtuvo 87.8 puntos, superando a GPT-5.2; en el desafío GPQA de nivel doctoral, logró 88.4 puntos, por encima de Claude 4.5; en la prueba de cumplimiento de instrucciones IFBench, alcanzó 76.5 puntos, estableciendo un nuevo récord para todos los modelos; y en evaluaciones de agentes generales como BFCL-V4 y Browsecomp, Qwen3.5 superó a Gemini 3 Pro y GPT-5.2.

El entrenamiento multimodal nativo también ha impulsado avances en las capacidades visuales de Qwen3.5: en numerosas evaluaciones autorizadas, como razonamiento multimodal (MathVison), preguntas y respuestas visuales generales (RealWorldQA), reconocimiento de texto y comprensión de documentos (CC_OCR), inteligencia espacial (RefCOCO-avg), comprensión de videos (MLVU), Qwen3.5 ha logrado el mejor rendimiento. En tareas de resolución de problemas académicos, planificación de tareas y razonamiento en espacios físicos, Qwen3.5 supera a Qwen3-VL, el modelo especializado, con mejoras significativas en capacidades de localización espacial y razonamiento con imágenes, con análisis de inferencias más precisos y detallados. En comprensión de videos, Qwen3.5 soporta entrada directa de videos de hasta 2 horas (1 millón de tokens de contexto), ideal para análisis y resumen de contenido de videos largos. Además, Qwen3.5 integra de forma nativa la comprensión visual y la capacidad de codificación, combinando herramientas de búsqueda de imágenes y generación de imágenes, permitiendo convertir bocetos dibujados a mano en código frontend funcional, y detectar y corregir problemas de UI con solo una captura de pantalla, haciendo que la programación visual sea realmente una herramienta de productividad.

El entrenamiento multimodal nativo de Qwen3.5 se realiza de manera eficiente sobre la infraestructura de inteligencia artificial de Alibaba Cloud. Gracias a innovaciones tecnológicas fundamentales, el rendimiento en entrenamiento de datos combinados de texto, imagen y video de Qwen3.5 se acerca al de modelos basados únicamente en texto, reduciendo en gran medida la barrera de entrada para entrenamiento multimodal nativo. Además, mediante estrategias de precisión cuidadosamente diseñadas como FP8 y FP32, al escalar el entrenamiento a decenas de billones de tokens, se reduce el uso de memoria en aproximadamente un 50% y se aumenta la velocidad de entrenamiento en un 10%, ahorrando costos y mejorando la eficiencia del entrenamiento.

Qwen3.5 también ha logrado avances en el marco de agentes y aplicaciones de agentes. Puede operar de forma autónoma en teléfonos móviles y computadoras, completando tareas diarias de manera eficiente. En dispositivos móviles, soporta más aplicaciones y comandos principales, mientras que en PC puede manejar operaciones más complejas de múltiples pasos, como organización de datos entre aplicaciones y automatización de procesos, mejorando significativamente la eficiencia operativa. Además, el equipo de Qwen ha desarrollado un marco de aprendizaje reforzado asincrónico para agentes, que puede acelerar de 3 a 5 veces el proceso de entrenamiento end-to-end, y ha ampliado el soporte de agentes inteligentes modulares a millones de escala.

Se informa que la aplicación Qwen y la versión para PC ya integran de inmediato el modelo Qwen3.5-Plus. Los desarrolladores pueden descargar los nuevos modelos en la comunidad Moka y HuggingFace, o acceder a los servicios API a través de Alibaba Cloud Balian. Alibaba continuará lanzando diferentes modelos de la serie Qwen3.5 en distintos tamaños y funciones. Muy pronto también se lanzará el modelo insignia Qwen3.5-Max, con mayor rendimiento.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado

Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanea para descargar la aplicación de Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)