Resultados de la búsqueda para "QWEN"
13:10

Jingwei Hengrun: La compañía ha implementado DeepSeek y Qwen

Jingwei Hengrun utiliza grandes modelos como DeepSeek y Qwen para desarrollar aplicaciones profesionales de IA, que abarcan múltiples campos como la asistencia inteligente, el diseño, las pruebas, la optimización de productos y la inteligencia de procesos empresariales. Estas aplicaciones mejoran la eficiencia y la calidad del trabajo y reducen los costos.
Más
DEEPSEEK-0.58%
  • 3
  • 3
23:02
Golden Finance reported that the Alibaba Qwen team officially released their latest research results - the QwQ-32B large language model, QwQ-32B, which achieves a performance leap through reinforcement learning with only about 1/21 of the parameter amount of DeepSeek-R1.
DEEPSEEK-0.58%
  • 1
  • 2
12:16

Fourth Paradigm launches large model inference edge solution ModelHub AIoT

Según los datos de Jinshi del 26 de febrero, se entiende que la cuarta forma ha lanzado la solución de extremo del modelo de inferencia de gran modelo ModelHub AIoT, que permite a los usuarios implementar fácilmente modelos de destilación de pequeño tamaño, incluidos DeepSeek R1, Qwen 2.5, Llama 2/3, etc., en el extremo y realizar la ejecución sin conexión. Los usuarios pueden cambiar fácilmente entre varios modelos, lo que equilibra la compresión del modelo y el rendimiento de inferencia, y resuelve la complejidad de la implementación y la optimización. La empresa afirma que esta solución no solo puede satisfacer la demanda de los usuarios de privacidad y tiempo real, sino que también reduce significativamente el costo de inferencia de gran modelo de IA.
Más
DEEPSEEK-0.58%
11:29

AliExpress International integrates DeepSeek's large model

Los datos de Jinshi del 12 de febrero informan que la estación internacional de Ali ha incorporado modelos grandes como DeepSeek, que se aplicarán de manera integral en varios aspectos clave del negocio de comercio exterior. Después de la incorporación, cuando la IA atienda automáticamente a los clientes en el extranjero, podrá considerar de manera más integral la intención de las preguntas de los compradores, y luego combinará la profundidad de las observaciones de mercado en la estación internacional de Ali, la experiencia en comercio exterior y la situación de los productos de los comerciantes. Además, se informa que la estación internacional de Ali también está probando la pregunta de equivalencia Qwen.
Más
DEEPSEEK-0.58%
04:19
Golden Ten Data informó el 29 de abril que Tongyi K Man lanzó el modelo de parámetros de kning Qwen1.5-110B por primera vez, mostrando un excelente rendimiento en evaluaciones de referencia más largas como MMLU, TheoremQA y GPQA. En la actualidad, la serie Qwen 1.5 ha acumulado 10 modelos grandes de código abierto, y el número de descargas de modelos de código abierto Tongyi K ha superado los 7 millones.
03:19
Según 36Kr informado el 25 de enero, Alibaba Cloud anunció el progreso de la investigación de los modelos grandes modales largos. El modelo de comprensión visual Qwen-VL se ha actualizado nuevamente, después de la versión Plus, la versión Max se ha lanzado nuevamente y el modelo actualizado tiene una capacidad de razonamiento visual más fuerte y una capacidad de comprensión china, puede reconocer personas de acuerdo con imágenes, responder preguntas, crear, escribir código y obtener buenos resultados en evaluaciones autorizadas largas.
03:19
Según un informe de 36Kr del 25 de enero, Alibaba Cloud anunció el progreso de la investigación de los grandes modelos multimodales. El modelo de comprensión visual Qwen-VL de Tongyi Qianwen se ha actualizado nuevamente, después de la versión Plus, la versión Max tiene una capacidad de razonamiento visual más fuerte y una capacidad de comprensión china, puede reconocer personas de acuerdo con imágenes, responder preguntas, crear, escribir código y obtener buenos resultados en múltiples evaluaciones autorizadas.
  • 1
03:19
Según 36Kr informado el 25 de enero, Alibaba Cloud anunció el progreso de la investigación de los modelos grandes modales largos. El modelo de comprensión visual Qwen-VL se ha actualizado nuevamente, después de la versión Plus, la versión Max se ha lanzado nuevamente y el modelo actualizado tiene una capacidad de razonamiento visual más fuerte y una capacidad de comprensión china, puede reconocer personas de acuerdo con imágenes, responder preguntas, crear, escribir código y obtener buenos resultados en evaluaciones autorizadas largas.
03:19
Según un informe de 36Kr del 25 de enero, Alibaba Cloud anunció el progreso de la investigación de los grandes modelos multimodales. El modelo de comprensión visual Qwen-VL de Tongyi Qianwen se ha actualizado nuevamente, después de la versión Plus, la versión Max tiene una capacidad de razonamiento visual más fuerte y una capacidad de comprensión china, puede reconocer personas de acuerdo con imágenes, responder preguntas, crear, escribir código y obtener buenos resultados en múltiples evaluaciones autorizadas.
03:40
Según Pinwan, la página de Arxiv muestra que Alibaba lanzó recientemente un modelo de lenguaje de audio llamado Qwen-Audio. El modelo está diseñado para lograr la comprensión auditiva universal mediante la expansión del entrenamiento previo del lenguaje de audio para cubrir más de 30 tareas y varios tipos de audio, como voces humanas, sonidos de la naturaleza, música y canciones. La investigación ha demostrado que Qwen-Audio logra un rendimiento significativo en una amplia gama de tareas de referencia sin la necesidad de un ajuste fino específico de la tarea.
AUDIO1.86%
03:59
Según el informe de TechWeb del 19 de septiembre, el sistema de evaluación nacional autorizado Flag_ (Libra) anunció los resultados de la evaluación de los últimos modelos grandes en la lista de septiembre. Basado en el último conjunto de datos de evaluación subjetiva de CLCC v2.0, la lista de septiembre de Flag_ (Libra) se centra en evaluar 7 modelos de diálogo de código abierto que se han vuelto populares recientemente. A juzgar por los resultados generales, Baichuan2-13 b-chat, Qwen-7 b-chat y Baichuan2-7 b-chat se encuentran entre los mejores, con tasas de precisión superiores al 65%. En la lista de modelos base, los resultados de la evaluación objetiva de Baichuan 2, Qwen, InternLM y Aquila superaron a los modelos Llama y Llama2 del mismo nivel de parámetro. En la lista de modelos SFT, Baichuan 2-13 B-chat, YuLan-Chat-2-13 B y AquilaChat-7 B se encuentran entre los tres primeros. En ambas listas de evaluación objetiva, Baichuan 2 mostró un rendimiento excelente y la prueba del modelo básico superó a Llama 2 tanto en el campo chino como en el inglés. Se informa que Flag_ (Libra) es un gran sistema de evaluación de modelos y una plataforma abierta lanzado por el Instituto de Investigación de Inteligencia Artificial Zhiyuan de Beijing. Su objetivo es establecer puntos de referencia, métodos y conjuntos de herramientas de evaluación científicos, justos y abiertos para ayudar a los investigadores a evaluar de manera integral los modelos básicos y Rendimiento de algoritmos de entrenamiento. Flag_ El gran sistema de evaluación del modelo de lenguaje incluye actualmente 6 tareas de evaluación principales, casi 30 conjuntos de datos de evaluación y más de 100.000 preguntas de evaluación.
03:14
Según el "Kechuangban Daily", Alibaba Cloud lanzó hoy un modelo de lenguaje visual a gran escala Qwen-VL y lo abrió directamente. Qwen-VL se desarrolló basándose en el modelo Qwen-7B de 7 mil millones de parámetros de Tongyi Qianwen, que admite entrada de gráficos y texto. En comparación con el modelo VL anterior, Qwen-VL no solo tiene capacidades básicas de reconocimiento de imagen y texto, descripción, preguntas y respuestas y diálogo, sino que también agrega nuevas capacidades como posicionamiento visual y comprensión de texto en imágenes, que se pueden usar para Generación de preguntas y respuestas de conocimientos y subtítulos de imágenes, preguntas y respuestas de imágenes, preguntas y respuestas de documentos, posicionamiento visual detallado y otros escenarios.
13:33
Jinse Finance informó que el gigante tecnológico Alibaba Group anunció el 3 de agosto que su división de computación en la nube lanzó dos modelos de inteligencia artificial (IA) de código abierto. Sus dos modelos de lenguaje grande (LLM) se llaman Qwen-7B y Qwen-7B-Chat, cada uno con 7 mil millones de parámetros. El nuevo modelo está diseñado para ayudar a llevar la inteligencia artificial a las operaciones de las pequeñas y medianas empresas. Qwen-7B y Qwen-7B-Chat tienen varias características que son atractivas para las empresas, como permitir "acceso gratuito a código, pesos de modelos y documentación por parte de académicos, investigadores y organizaciones comerciales de todo el mundo", dijo la compañía. El 1 de agosto, la compañía también anunció una actualización del motor vectorial para su servicio de almacenamiento de datos AnalyticDB, que permitirá a sus clientes empresariales crear rápidamente aplicaciones de IA generativas personalizadas.
06:45
Según los informes de 36 Krypton, el 3 de agosto, Alibaba Cloud abrió el modelo de 7 mil millones de parámetros de Tongyi Qianwen, incluido el modelo general Qwen-7 B y el modelo de diálogo Qwen-7 B-Chat, gratis y comercialmente disponible. Este movimiento convierte a Alibaba Cloud en la primera empresa de tecnología a gran escala en China en unirse a las filas del código abierto a gran escala.
Cargar más
Etiquetas populares

Temas de actualidad

Más

Calendario cripto

Más
Desbloqueo de Tokens
Aptos desbloqueará 11,310,000 APT tokens el 11 de octubre, constituyendo aproximadamente el 2.15% del suministro actualmente en circulación.
2025-10-10
Desbloqueo de Tokens
Aethir desbloqueará 1,260,000,000 tokens ATH el 12 de octubre, lo que constituye aproximadamente el 12.73% del suministro actualmente en circulación.
2025-10-11
1.26B Token Unlock
Aethir desbloquea tokens a las 10 AM UTC.
2025-10-11
Actualizaciones de proyectos
Coinbase actualizará todos los tokens MATIC a POL del 14 al 17 de octubre, durante el período de migración, las recompensas por stake de MATIC no se acumularán.
2025-10-14
Hackathon
La Red Pi ha lanzado oficialmente el Hackathon Pi 2025, marcando su primer gran desafío para desarrolladores tras el debut de la Red Abierta. Este hackathon invita a los desarrolladores a diseñar y lanzar aplicaciones impulsadas por Pi que ofrezcan utilidad en el mundo real y ayuden a evolucionar el ecosistema, con un premio total de 160,000 Pi. Aprovechando el impulso de innovación de Pi2Day 2025, la competencia fomenta una amplia gama de ideas impulsadas por la utilidad, desde herramientas de uso diario hasta conceptos de aplicaciones completamente nuevos. Todas las presentaciones deben cumplir con los Requisitos de Listado de Mainnet y proporcionar un valor tangible a la comunidad Pi. Incentivos y Premios: 1er Lugar: 75,000 Pi 2do Lugar: 45,000 Pi 3er Lugar: 15,000 Pi Hasta 5 Menciones Honoríficas: 5,000 Pi cada una Fechas Clave: 15 de agosto: Se abren las inscripciones y comienza la formación de equipos 21 de agosto: El hackathon comienza oficialmente 19 de septiembre: Revisión a mitad de camino (opcional, pero puede ofrecer mentoría y exposición) 15 de octubre: Fecha límite para las presentaciones finales, incluyendo listado de aplicaciones y video de demostración. Se anima a los desarrolladores a aprovechar Pi App Studio, Brainstorm, el Portal del Desarrollador y recursos de código abierto (PiOS), así como herramientas de IA, para construir y refinar sus ideas.
2025-10-14
Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)