OpenRouter lanza la API de generación de videos, una interfaz que llama a modelos principales como Sora 2, Veo 3.1, Seedance y otros

robot
Generación de resúmenes en curso

ME News Noticias, 16 de abril (UTC+8), según Beating de Monitoreo de Movimiento, la plataforma de agregación de modelos de IA OpenRouter ha lanzado oficialmente la API de generación de videos, soportando inicialmente videos generados por texto y por imagen, integrándose con Seedance 2.0/1.5, Veo 3.1, Wan 2.7/2.6 y Sora 2 Pro, y continuará ampliándose en el futuro. La fragmentación de APIs en el campo de generación de videos es mucho más severa que en los modelos de texto: diferentes formatos de solicitud, diferentes nombres de parámetros, diferentes unidades de facturación, e incluso diferentes capacidades dentro de la misma familia de modelos (videos generados por texto, por imagen, generación de personajes de referencia) a menudo corresponden a diferentes puntos finales. La estrategia de OpenRouter es construir una capa superior con un esquema unificado, que enruta automáticamente a los puntos finales correctos según los parámetros de la solicitud. Si se incluye una imagen, se usa la generación de video basada en imagen; si se especifica un personaje de referencia, se usa el punto final de coherencia de personajes; los desarrolladores no necesitan preocuparse por las diferencias subyacentes. La normalización de parámetros también cubre detalles propensos a errores. Por ejemplo, Veo 3.1 soporta fragmentos de 4, 6 y 8 segundos, Wan 2.6 soporta 5 o 10 segundos, y si se ingresa una duración incorrecta, simplemente da error. OpenRouter ofrece un punto final para consultar las capacidades del modelo /api/v1/videos/models, que devuelve la resolución, duración, relación ancho-alto, precios y parámetros específicos de cada modelo, permitiendo a los desarrolladores o agentes de programación verificar antes de probar y evitar errores. Dado que la generación de videos lleva minutos, la API funciona en modo asíncrono: tras enviar la indicación, devuelve un ID de tarea, y una vez completada, se recupera el video. OpenRouter también ha abierto un ejemplo de flujo de trabajo multimodal, que muestra cómo los modelos de LLM generan instrucciones detalladas, los modelos de imagen generan personajes y los modelos de video generan escenas en una secuencia conectada. Este es el valor más directo de la integración de generación de videos con enrutamiento unificado: los desarrolladores pueden combinar modelos de texto, imagen y video en una misma API, sin tener que integrar SDKs de diferentes proveedores. (Fuente: BlockBeats)

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado