DeepSeek V4 Impactante lanzamiento: Los diez principios fundamentales en la competencia con los oponentes

A las tres y media de la tarde, el sol en California Avenue ya comenzaba a inclinarse hacia Stanford.
El perro frente a Zombie Café volvía a estar echado debajo de la silla blanca en la entrada.
Sobre la mesa, tres documentos desplegados:
El comunicado de lanzamiento de Opus 4.7 de Anthropic del 16 de abril,
la transcripción palabra por palabra de la conferencia de GPT-5.5 de OpenAI del 23 de abril con Greg Brockman,
y el informe técnico de DeepSeek V4 que salió esta madrugada, aún con tinta fresca.

En ocho días, las tres empresas pusieron sobre la mesa todas sus cartas para el segundo trimestre de 2026.

Antes de terminar el café, Alan Walker de Silicon Valley explicó claramente la situación.
Sin exagerar benchmarks, sin hablar de qué modelo “se siente mejor”, sin redactar notas de prensa.
Solo desglosando desde los principios básicos —tecnología, chips, precios, audiencia, estrategia, ecosistema—
dónde se posicionan exactamente en 2026, quién lidera, quién defiende, quién hace temblar la mesa.

01 Open source vs. cerrado — La verdadera disputa en la raíz del conflicto

DeepSeek ha abierto de forma sincronizada los modelos V4-Pro y V4-Flash, con licencia MIT estándar,
los pesos directamente en Hugging Face, accesibles para descargar, ajustar y comercializar.
Claude Opus 4.7 y GPT-5.5 son completamente cerrados — solo ofrecen una API, los pesos del modelo nunca serán accesibles.

Muchos piensan que esto es una lucha por modelos de negocio.
Error. Es una lucha por la estructura de confianza.

La barrera del modelo cerrado se llama “solo puedes venir a mí” —
atrapando a los usuarios en la puerta de mi casa, haciendo fila.
La barrera del open source se llama “no puedes separarte de mi ecosistema” —
construyendo la infraestructura de IA de desarrolladores, empresas, y países enteros sobre mi arquitectura.
Uno es un peaje, el otro una autopista de alta velocidad.

DeepSeek ha consolidado esto con cuatro generaciones continuas de open source: V3, R1, V3.2, V4.
Hoy, cualquier empresa en el mundo que quiera desplegar modelos grandes localmente en finanzas, salud, gobierno o defensa,
piensa primero en DeepSeek, sin duda.
Empresas estatales chinas, fondos soberanos en Oriente Medio, bancos europeos que no quieren datos en la nube estadounidense —
esas nunca usarán API cerradas, ni en sueños.
La apuesta de Anthropic y OpenAI es la contraria: la brecha en inteligencia de vanguardia siempre existirá,
los clientes más inteligentes están dispuestos a pagar más.

Pero esta apuesta tiene un marco temporal.
Desde que R1 salió, la diferencia en capacidades entre open source y cerrado se redujo de un año a tres meses.
Si ese plazo se acorta a un mes, la línea del modelo cerrado empezará a fracturarse.

02 Arquitectura de modelos — Los tres no siguen el mismo camino

V4-Pro 1.6T parámetros / 49B activaciones; V4-Flash 284B parámetros / 13B activaciones.
Contexto de 1 millón de tokens por defecto de fábrica.
El núcleo de la arquitectura es atención híbrida (CSA + HCA entrelazados) + Hyper-Conexiones Restringidas + Optimizador Muon + entrenamiento FP4.
En escenarios de 1M de tokens, la inferencia por token de V4-Pro usa solo el 27% de FLOPs de V3.2, y la caché KV solo el 10%.
V4-Flash es aún más eficiente: FLOPs al 10%, caché KV al 7%.

La esencia de esta arquitectura es una apuesta:
tener un contexto largo no es un problema de capacidad, sino de eficiencia.
La generación V3 redujo costos con MoE, la generación V4 busca reducir costos de inferencia con atención híbrida.
Cortar en los puntos más caros.

GPT-5.5 no es igual.
OpenAI lo ha declarado claramente: es el primer modelo desde GPT-4.5 que se entrena desde cero.
Las versiones 5.1, 5.2, 5.3 y 5.4 son iteraciones post-entrenamiento sobre la misma base.
El 5.5 rehízo arquitectura, datos de preentrenamiento y objetivos de entrenamiento orientados a agentes.
Pachocki en la conferencia dijo: “El progreso en modelos en los últimos dos años ha sido sorprendentemente lento”,
lo que en realidad indica que su base anterior ya no escala bien, y necesitan un nuevo motor.

Claude Opus 4.7 es una mejora precisa respecto a 4.6.
Anthropic tiene claro su posicionamiento: mejoras notables, no un cambio de paradigma.
SWE-bench verificado subió de 80.8 a 87.6, resolución visual de 1568px a 2576px,
el rendimiento total es 3.3 veces mayor, y cambiaron el tokenizador (el mismo texto requiere entre 1 y 1.35 veces más tokens).
Mythos Preview será su próxima generación monstruo, pero aún en caja fuerte, solo para 12 socios, y en versión civil, aún en espera.

03 Chips subyacentes — La noticia más subestimada hoy

Los titulares en medios en inglés se centran en benchmarks de V4.
Error. La verdadera noticia que cambia las reglas del juego es que —
parte del entrenamiento de V4 se realizó en chips Huawei Ascend.

El mismo día, Huawei anunció soporte completo para toda la serie Ascend SuperPoD en V4 Pro y Flash.
Cambricon también anunció compatibilidad.
SMIC subió un 10% en Hong Kong ese día.
Leer estas tres noticias juntas revela la verdadera historia:
por primera vez, la IA china ejecuta entrenamiento y inferencia en hardware nacional, sin ninguna GPU de Nvidia en la ruta crítica.

Este hecho pesa más que todos los benchmarks juntos.

En los últimos tres años, la única palanca efectiva de EE.UU. contra China ha sido la restricción de exportación de GPUs avanzadas.
La lógica es simple: no puedes entrenar los modelos más potentes porque no puedes comprar H100 o B200.
El lanzamiento de V4 equivale a reducir a la mitad esa palanca.
Los modelos open source de primera línea ahora pueden entrenarse y desplegarse en hardware no Nvidia.
Si esto se valida ampliamente en el mercado, las sanciones en IA serán prácticamente ineficaces.

Claude y GPT-5.5 corren en stacks de NVIDIA H100/H200/B200 + TPU de Google + Trainium2 de Anthropic.
No hay otra opción, ni otro proveedor.
Es una barrera, un punto único de fallo: si Nvidia sube precios o no puede producir, ambas se verán afectadas.
DeepSeek ahora tiene una cadena de suministro independiente — una carta más en su mano.

04 Costos de entrenamiento — Cómo Muon, FP4 y 32T tokens permiten hoy este precio

El informe técnico de V4 lo explica claramente:
usaron el optimizador Muon (más rápido, más estable), precisión FP4 (reducción de memoria a la mitad),
entrenamiento en dos fases (SFT y RL por expertos en cada campo, luego destilación en política para unificar el modelo),
preentrenamiento con 32 billones de tokens.
No son adornos, son las máquinas que realmente reducen costos.

El resultado:
el API de V4-Pro puede costar menos que V3.2, y V4-Flash ya está en el rango más bajo de modelos open source.

GPT-5.5 apuesta a subir precios abiertamente.
Entrada de 5 USD por millón de tokens, salida de 30 USD, el doble que GPT-5.4.
OpenAI dice que “la eficiencia en tokens aumentó un 40%, y el costo total solo subió un 20%”.
Palabras bonitas. Pero en producción, con prompts reales, la factura se duplica.
OpenAI apuesta a que la “escasez de inteligencia de vanguardia” durará un ciclo más, y por eso puede subir precios.

Claude Opus 4.7 sube precios en secreto.
El precio no cambia, 5/25 USD, igual que Opus 4.6.
Pero su propia documentación dice que el nuevo tokenizador requiere hasta un 35% más de tokens para el mismo texto.
Es una subida inteligente, pero los equipos de ingeniería con mucho volumen lo notarán en sus informes mensuales.

DeepSeek hace lo contrario: baja precios.
V3.2 ya es barato, V4-Pro aún más.
Y cuando Huawei lance el Ascend 950, bajarán aún más.
Es la estrategia tradicional china: usar escala y eficiencia para hacer que los precios se desplomen, y luego mantener a los usuarios en su ecosistema.

05 Precios API — ¿Cuánto puede comprar un dólar en inteligencia?

Revisa la lista de precios.

Un análisis de Artificial Analysis compara:
Para un mismo puntaje en el Índice de Inteligencia, GPT-5.5 (mediano) ≈ Claude Opus 4.7 (máximo),
el primero cuesta unos $1,200 en pruebas completas, el segundo unos $4,800.
V4-Pro en nivel similar de inteligencia cuesta entre una tercera y una décima parte.

No es “más barato”. Es reducir el costo unitario de la inteligencia de alta gama en un orden de magnitud.

¿Qué significa para una empresa que gasta un millón de dólares al mes en tokens?
Antes, con ese presupuesto, solo podía correr 10 agentes.
Ahora, puede correr 80.
Antes, experimentos caros eran inviables; ahora, a precio de ganga, cualquier prueba.
Si esto se valida en varias empresas líderes (por ejemplo, una que ahorra un 70% en costos de atención al cliente cambiando Opus por V4-Pro sin perder calidad),
el resto seguirá.
Es un efecto reflexivo: cuantas más empresas migren, menor será la barrera psicológica para las siguientes.

La respuesta de OpenAI y Anthropic solo puede ser en dos frentes:
o volver a ampliar la brecha en modelos cerrados (Mythos pronto saldrá),
o hacer que la transición sea más costosa en relaciones empresariales, cumplimiento y fiabilidad.
La primera requiere tiempo y dinero, la segunda paciencia de los clientes.

06 Economía real de contextos de un millón de tokens

Las tres empresas usan 1M de contexto.
En apariencia, un número igual.

Pero —
saber hacer no es lo mismo que hacerlo barato.

V4-Pro obtiene 83.5 en la prueba de recuperación de textos largos MRCR,
superando a Gemini-3.1-Pro con 76.3, pero por debajo de Claude Opus 4.6 con 92.9.
En CorpusQA, en 1M de tokens, obtiene 62%, por encima de Gemini 3.1 Pro con 53.8%.
La precisión en recuperación en 128K es 94%, en 512K 82%, en 1M 66%.
No es la mejor en valor absoluto, pero en open source, la primera, y la primera en hacer 1M tokens por defecto.

Claude Opus 4.7 no sube el precio por contexto largo —
esto es un logro de Anthropic. GPT-5.5 también.
Pero el problema es que los costos por inferencia varían diez veces entre las tres, y en escenarios de contexto largo, esa diferencia se amplifica diez veces.

Un cálculo simple:
un documento legal de 500K tokens analizado por el modelo:
solo entrada cuesta $2.5, salida total $3-4;
GPT-5.5 similar;
V4-Pro aproximadamente $1.
Si se ejecuta esa tarea 10,000 veces al día, el costo anual puede variar de unos pocos millones a más de diez millones de dólares.
El mayor cuello de botella para empresas medianas en análisis con agentes es el costo del contexto largo, y V4-Pro lo elimina directamente.

07 Capacidades de codificación y agentes — Cada uno en su territorio

Desplegando la tabla de benchmarks, la situación es muy clara.

Esta data no dice quién es más fuerte, sino que
las tres priorizan diferentes formas de agentes.

Anthropic se enfoca en “resolver problemas reales en código existente”.
Clientes como Cursor, Devin, Factory, Ramp usan Opus para tareas reales, no juguetes como “escribir una app de tareas”.
NVIDIA desplegó Codex a 10,000 empleados y redujo el ciclo de debugging de días a horas — eso también lo puede demostrar Anthropic.
Opus 4.7 puede alcanzar un 64.3% en SWE-Bench Pro — realmente probado en producción.

OpenAI se centra en “operar toda la computadora con agentes”.
Terminal-Bench 2.0, OSWorld, Codex corriendo shell — apuntan a un futuro donde IA no solo escribe código, sino que controla tu terminal, ejecuta comandos y maneja tu Mac.
La frase de Brockman en la conferencia, “computación agentica a escala”, no es un eslogan, sino la visión para la próxima década.

DeepSeek prioriza “el patrimonio colectivo de inteligencia de desarrolladores open source”.
No ganará en SWE-Bench Pro, pero lleva el techo del open source a 3206 puntos en Codeforces.
Significa que cualquier startup puede correr en sus propias máquinas un modelo de código cercano a nivel de competencia sin pagar a Anthropic u OpenAI.

08 Audiencia — Tres empresas apuntando a billeteras completamente distintas

La lista de clientes de Anthropic revela su dirección:
PayPal, Hex, Devin, Factory, Ramp, Notion, GitHub Copilot, Stripe, Block — todos fintech y SaaS empresarial.
Tienen en común: mucho dinero, cero tolerancia a errores.
El precio de Opus 4.7, 5/25 USD, auditorías de seguridad, narrativa de cumplimiento, despliegue multicloud con Bedrock/Vertex AI/Foundry —
todo dirigido a clientes con procesos de compra de medio año, contratos de tres años, millones de dólares anuales.
En Forge Global, la valoración de Anthropic supera los 10 billones de dólares, más que los 8.8 mil millones de OpenAI, por la historia de “alta densidad de clientes empresariales”.

El modelo de OpenAI combina consumidores + desarrolladores + empresas.
ChatGPT con casi 1,000 millones de usuarios semanales, es su verdadera fortaleza.
GPT-5.5 en Plus/Pro/Business/Enterprise, con precios duplicados, distribuidos en flujo de usuarios finales.
El costo de API se duplica, pero el volumen lo amortiza.
El grupo de desarrolladores de Codex creció de decenas de miles a millones en medio año, con despliegues masivos en NVIDIA, Stripe, Shopify.
Su estrategia es escala — cada unidad de costo se diluye en un gran denominador.

La audiencia de DeepSeek es completamente distinta.
Empresas estatales chinas, bancos, hospitales, agencias gubernamentales; fondos soberanos en Oriente Medio que no quieren datos en la nube estadounidense; farmacéuticas en Europa con estricta GDPR; gobiernos en Asia Sudoriental y América Latina que quieren IA soberana.
También desarrolladores hardcore y startups en Silicon Valley que solo quieren correr modelos en sus propias máquinas, sin pagar API.
No son millones de usuarios, sino otra escala — en geopolítica y soberanía.

Tres billeteras distintas, tres estrategias de venta diferentes.

09 Seguridad y postura en ciberseguridad — Actitudes opuestas frente a “modelos convertidos en armas”

A principios de abril, Anthropic lanzó Project Glasswing.
Opus 4.7 fue el primer modelo en integrar “detección automática y rechazo de solicitudes de alta peligrosidad cibernética”.
En su informe técnico, lo explican claramente: entrenaron reduciendo intencionadamente la capacidad ofensiva en ciberseguridad.
CyberGym puntuó 73.1, casi igual que Opus 4.6 con 73.8 — es una decisión política, no una limitación de capacidad.
Mythos Preview alcanza 83.1 en el mismo benchmark, pero solo para 12 socios, y esa lista es confidencial — se filtró hace unos días (en un Discord, adivinaron la URL), y Anthropic publicó un informe de incidentes.

OpenAI opta por otra vía.
Su sistema GPT-5.5 indica en la documentación:
que no alcanza el nivel “High” en el marco de preparación para riesgos cibernéticos, aún no es crítico.
Su estrategia no es reducir capacidades, sino implementar clasificadores más estrictos, autenticación, y un programa de acceso cibernético permisivo — si quieres capacidades ofensivas, primero verifica tu identidad.
Mia Glaese en la conferencia dijo: “primera versión verificada por identidad”, implicando que —
las capacidades se entregan, pero la responsabilidad recae en el usuario.

El informe técnico de DeepSeek V4 no aborda mucho este tema.
La comunidad open source tradicionalmente dice: “el código es abierto, tú lo usas, tú te responsabilizas”.
Para reguladores, esto es un problema, para desarrolladores independientes, un paraíso.
Pero el riesgo real es que — cualquiera puede correr en su GPU un modelo cercano a Opus 4.7, sin ningún mecanismo de interceptación.
¿Cómo avanzarán las regulaciones en este escenario? La segunda mitad de 2026 y 2027 será clave.

10 Estrategia de mercado — Tres apuestas diferentes, pero solo una será la mayor

DeepSeek busca ser el Linux de la IA.
Con open source, costos mínimos y chips nacionales, democratizar la infraestructura de IA global.
Cuando cada país, empresa y desarrollador corre en su arquitectura, no gana con licencias, sino con valor ecosistémico.
Hoy, Hugging Face tiene millones de descargas, mañana cada SDK de chips nacionales será compatible, y en unos años, cada nuevo desarrollador usará “from deepseek import…”.
Esta estrategia la jugó Linus Torvalds hace veinte años, y hoy la repite Liang Wenfeng.
La diferencia: los LLMs cuestan 10,000 veces más que un sistema operativo, hay mil veces más dinero caliente, y el valor geopolítico es 100 veces mayor.

Anthropic apuesta por ser el motor de IA de las principales empresas globales.
Su cliente no es el billón de usuarios de consumo, sino las primeras 10,000 empresas en presupuesto de TI y cumplimiento.
Opus 4.7, con su enfoque “estrecho pero profundo”, Mythos Preview, despliegue multicloud con Bedrock/Vertex/Foundry, y una valoración de 1 billón en Forge,
cuentan una historia: que cada equipo legal, financiero, de desarrollo y atención al cliente, opere en mi modelo y nunca caiga.
Es la lógica de firmas de abogados y bancos de inversión, no de Facebook.
Clientes pocos, precios altos, costos de cambio casi infinitos.

OpenAI busca el próximo Windows + Office + Google en una sola superapp.
ChatGPT es su canal de distribución (cerca de 1,000 millones de usuarios semanales),
Codex su fidelización de desarrolladores, Operator su interfaz de control, y la nueva app de Mac su presencia en escritorio.
La frase de Brockman, “computación agentica a escala”, no es un eslogan, sino la visión para la próxima década.
No solo un chatbot inteligente, sino la forma en que los humanos usarán computadoras en el futuro.
Al abrir la computadora, lo primero que verán será esa IA, y todo el trabajo, documentos, correos y reuniones pasarán por ella.
Es lo que Bill Gates soñó en 1990, Steve Jobs en 2007, y que OpenAI podría hacer realidad entre 2027 y 2030.
El aumento de precios de GPT-5.5 es una garantía en esta apuesta.

Las tres rutas llevan a Roma. Pero solo una será la mayor — y esa determinará la distribución de riqueza en la industria de IA en la próxima década.

Las tres empresas revelan sus cartas en la misma semana.

Claude Opus 4.7 es estable — estrecho pero profundo, para empresas que prefieren contratos de tres años y millones de dólares.
Su ventaja: cualquier empresa que quiera usar IA como herramienta de productividad, pero teme errores, encontrará en Opus la opción más confiable.

GPT-5.5 es caro — precios duplicados, ambición de superaplicación, liderazgo en capacidades agenticas en línea de comandos y control de computadoras.
Su ventaja: si en 2027 “la IA controla toda la computadora” se realiza, OpenAI será la Microsoft de esa revolución.
Si no, los precios de 5/30 USD serán solo un costoso apéndice.

DeepSeek es agresivo — open source, bajo costo, chips nacionales, rompiendo las barreras de los otros dos.
Su ventaja: si la fragmentación geopolítica continúa, y la IA se divide en ecosistemas China y EE.UU., DeepSeek será el Linux de la China.
La probabilidad no es del 50%, pero ya supera con mucho el 5% de hace un año.

En enero de 2025, cuando salió R1, la reacción fue “China alcanza a la IA”.
Ahora, con V4, el nuevo término en el mercado será — “China empieza a cambiar las reglas”.

Una vez que las reglas cambian, no vuelven a ser iguales.

A las cuatro y media, el viento en California Avenue empezó a refrescarse.
El vaso de Zombie Café estaba vacío.
Alan dobló los tres documentos, los metió en su mochila.
Al salir, la perra levantó la cabeza, pero volvió a echarse.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado