El 16 de febrero, día de la víspera de Año Nuevo, Alibaba lanzó la nueva generación de su gran modelo de código abierto, Qwen3.5-Plus, cuyo rendimiento iguala al Gemini 3 Pro, alcanzando la cima como el modelo de código abierto más potente del mundo.
Se informa que Qwen3.5 ha logrado una renovación completa en la arquitectura del modelo subyacente. La versión Qwen3.5-Plus lanzada cuenta con un total de 397 mil millones de parámetros, con solo 17 mil millones activados, logrando un rendimiento superior a modelos de más de un billón de parámetros como Qwen3-Max, con un 60% menos de consumo de memoria en despliegue y una mejora significativa en la eficiencia de inferencia, alcanzando hasta 19 veces la capacidad de procesamiento. El precio de la API de Qwen3.5-Plus es de solo 0.8 yuanes por millón de tokens, lo que representa solo una 18ava parte del costo de Gemini 3 Pro.
A diferencia de las generaciones anteriores de grandes modelos de lenguaje de Qwen, Qwen3.5 ha logrado un salto generacional desde un modelo de texto puro hasta un modelo multimodal nativo. Mientras que Qwen3 preentrenaba en tokens de texto puro, Qwen3.5 se preentrena en tokens combinados de visión y texto, además de incorporar de manera significativa datos en chino, multilingüismo, STEM y razonamiento, permitiendo que el gran modelo “que abre los ojos” aprenda conocimientos del mundo más densos y lógica de razonamiento. Con menos del 40% de los parámetros, logra un rendimiento superior al de Qwen3-Max, con más de un billón de parámetros, en evaluaciones de referencia en razonamiento, programación y agentes inteligentes. Por ejemplo, en la evaluación MMLU-Pro de razonamiento del conocimiento, Qwen3.5 obtiene 87.8 puntos, superando a GPT-5.2; en el desafío GPQA de nivel doctoral, obtiene 88.4 puntos, por encima de Claude 4.5; en la prueba de cumplimiento de instrucciones IFBench, alcanza 76.5 puntos, estableciendo un nuevo récord para todos los modelos; y en evaluaciones de agentes generales como BFCL-V4 y Browsecomp, Qwen3.5 supera a Gemini 3 Pro y GPT-5.2.
El entrenamiento multimodal nativo también ha impulsado un avance en las capacidades visuales de Qwen3.5: en numerosas evaluaciones oficiales como razonamiento multimodal (MathVison), preguntas y respuestas visuales generales (RealWorldQA), reconocimiento de texto y comprensión de documentos (CC_OCR), inteligencia espacial (RefCOCO-avg) y comprensión de videos (MLVU), Qwen3.5 ha obtenido el mejor rendimiento. En tareas de resolución de problemas académicos, planificación de tareas y razonamiento en espacios físicos, Qwen3.5 supera a Qwen3-VL, el modelo especializado, con mejoras significativas en capacidades de localización espacial y razonamiento con imágenes, con análisis de inferencias más precisos y detallados. En comprensión de videos, soporta entradas de hasta 2 horas (1 millón de tokens de contexto), ideal para análisis y resumen de videos largos. Además, Qwen3.5 integra de forma nativa la comprensión visual y la capacidad de codificación, combinando herramientas de búsqueda de imágenes y generación de imágenes, permitiendo convertir bocetos dibujados a mano en código frontend funcional, y detectar y corregir problemas de interfaz con solo una captura de pantalla, haciendo que la programación visual sea una verdadera herramienta de productividad.
El entrenamiento multimodal nativo de Qwen3.5 se realiza de manera eficiente sobre la infraestructura de inteligencia artificial de Alibaba Cloud. Gracias a innovaciones tecnológicas fundamentales, el rendimiento en entrenamiento de datos combinados de texto, imagen y video de Qwen3.5 se acerca al de modelos basados únicamente en texto, reduciendo en gran medida la barrera de entrada para el entrenamiento multimodal nativo. Además, mediante estrategias de precisión FP8 y FP32 cuidadosamente diseñadas, al escalar a decenas de billones de tokens, se reduce aproximadamente en un 50% el uso de memoria activa y se aumenta en un 10% la velocidad de entrenamiento, ahorrando costos y mejorando la eficiencia del proceso.
Qwen3.5 también ha logrado avances en el marco de agentes y aplicaciones de agentes. Puede operar de forma autónoma en teléfonos y computadoras, realizando tareas diarias con alta eficiencia. En dispositivos móviles, soporta más aplicaciones y comandos principales, mientras que en PC puede manejar operaciones más complejas de múltiples pasos, como organización de datos entre aplicaciones y automatización de procesos, mejorando notablemente la eficiencia operativa. Además, el equipo de Qwen ha desarrollado un marco de aprendizaje reforzado asincrónico para agentes, que puede acelerar de 3 a 5 veces el proceso de entrenamiento end-to-end, y ha ampliado el soporte de agentes inteligentes modulares a millones de unidades.
Se informa que la aplicación Qwen y la versión para PC ya integran de inmediato el modelo Qwen3.5-Plus. Los desarrolladores pueden descargar el nuevo modelo desde la comunidad Moka y HuggingFace, o acceder a los servicios API a través de Alibaba Cloud Bailing. Alibaba continuará lanzando modelos de la serie Qwen3.5 en diferentes tamaños y funciones. Muy pronto también estará disponible el modelo insignia Qwen3.5-Max, con mayor rendimiento.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Alibaba lanza la nueva generación de modelos base Qianwen 3.5, alcanzando la cima como el modelo de código abierto más potente del mundo
El 16 de febrero, día de la víspera de Año Nuevo, Alibaba lanzó la nueva generación de su gran modelo de código abierto, Qwen3.5-Plus, cuyo rendimiento iguala al Gemini 3 Pro, alcanzando la cima como el modelo de código abierto más potente del mundo.
Se informa que Qwen3.5 ha logrado una renovación completa en la arquitectura del modelo subyacente. La versión Qwen3.5-Plus lanzada cuenta con un total de 397 mil millones de parámetros, con solo 17 mil millones activados, logrando un rendimiento superior a modelos de más de un billón de parámetros como Qwen3-Max, con un 60% menos de consumo de memoria en despliegue y una mejora significativa en la eficiencia de inferencia, alcanzando hasta 19 veces la capacidad de procesamiento. El precio de la API de Qwen3.5-Plus es de solo 0.8 yuanes por millón de tokens, lo que representa solo una 18ava parte del costo de Gemini 3 Pro.
A diferencia de las generaciones anteriores de grandes modelos de lenguaje de Qwen, Qwen3.5 ha logrado un salto generacional desde un modelo de texto puro hasta un modelo multimodal nativo. Mientras que Qwen3 preentrenaba en tokens de texto puro, Qwen3.5 se preentrena en tokens combinados de visión y texto, además de incorporar de manera significativa datos en chino, multilingüismo, STEM y razonamiento, permitiendo que el gran modelo “que abre los ojos” aprenda conocimientos del mundo más densos y lógica de razonamiento. Con menos del 40% de los parámetros, logra un rendimiento superior al de Qwen3-Max, con más de un billón de parámetros, en evaluaciones de referencia en razonamiento, programación y agentes inteligentes. Por ejemplo, en la evaluación MMLU-Pro de razonamiento del conocimiento, Qwen3.5 obtiene 87.8 puntos, superando a GPT-5.2; en el desafío GPQA de nivel doctoral, obtiene 88.4 puntos, por encima de Claude 4.5; en la prueba de cumplimiento de instrucciones IFBench, alcanza 76.5 puntos, estableciendo un nuevo récord para todos los modelos; y en evaluaciones de agentes generales como BFCL-V4 y Browsecomp, Qwen3.5 supera a Gemini 3 Pro y GPT-5.2.
El entrenamiento multimodal nativo también ha impulsado un avance en las capacidades visuales de Qwen3.5: en numerosas evaluaciones oficiales como razonamiento multimodal (MathVison), preguntas y respuestas visuales generales (RealWorldQA), reconocimiento de texto y comprensión de documentos (CC_OCR), inteligencia espacial (RefCOCO-avg) y comprensión de videos (MLVU), Qwen3.5 ha obtenido el mejor rendimiento. En tareas de resolución de problemas académicos, planificación de tareas y razonamiento en espacios físicos, Qwen3.5 supera a Qwen3-VL, el modelo especializado, con mejoras significativas en capacidades de localización espacial y razonamiento con imágenes, con análisis de inferencias más precisos y detallados. En comprensión de videos, soporta entradas de hasta 2 horas (1 millón de tokens de contexto), ideal para análisis y resumen de videos largos. Además, Qwen3.5 integra de forma nativa la comprensión visual y la capacidad de codificación, combinando herramientas de búsqueda de imágenes y generación de imágenes, permitiendo convertir bocetos dibujados a mano en código frontend funcional, y detectar y corregir problemas de interfaz con solo una captura de pantalla, haciendo que la programación visual sea una verdadera herramienta de productividad.
El entrenamiento multimodal nativo de Qwen3.5 se realiza de manera eficiente sobre la infraestructura de inteligencia artificial de Alibaba Cloud. Gracias a innovaciones tecnológicas fundamentales, el rendimiento en entrenamiento de datos combinados de texto, imagen y video de Qwen3.5 se acerca al de modelos basados únicamente en texto, reduciendo en gran medida la barrera de entrada para el entrenamiento multimodal nativo. Además, mediante estrategias de precisión FP8 y FP32 cuidadosamente diseñadas, al escalar a decenas de billones de tokens, se reduce aproximadamente en un 50% el uso de memoria activa y se aumenta en un 10% la velocidad de entrenamiento, ahorrando costos y mejorando la eficiencia del proceso.
Qwen3.5 también ha logrado avances en el marco de agentes y aplicaciones de agentes. Puede operar de forma autónoma en teléfonos y computadoras, realizando tareas diarias con alta eficiencia. En dispositivos móviles, soporta más aplicaciones y comandos principales, mientras que en PC puede manejar operaciones más complejas de múltiples pasos, como organización de datos entre aplicaciones y automatización de procesos, mejorando notablemente la eficiencia operativa. Además, el equipo de Qwen ha desarrollado un marco de aprendizaje reforzado asincrónico para agentes, que puede acelerar de 3 a 5 veces el proceso de entrenamiento end-to-end, y ha ampliado el soporte de agentes inteligentes modulares a millones de unidades.
Se informa que la aplicación Qwen y la versión para PC ya integran de inmediato el modelo Qwen3.5-Plus. Los desarrolladores pueden descargar el nuevo modelo desde la comunidad Moka y HuggingFace, o acceder a los servicios API a través de Alibaba Cloud Bailing. Alibaba continuará lanzando modelos de la serie Qwen3.5 en diferentes tamaños y funciones. Muy pronto también estará disponible el modelo insignia Qwen3.5-Max, con mayor rendimiento.