¿Puede China simplemente robarse el cerebro de IA de Estados Unidos que cuesta trillones en desarrollarse?

Por Christine Ji y William Gavin

Las empresas estadounidenses están invirtiendo sumas enormes para desarrollar modelos de IA de alto rendimiento. Los ataques de destilación intentan extraerlos de manera maliciosa, y nadie está haciendo mucho para detenerlo.

La carrera de IA entre China y EE. UU. se está intensificando.

En enero, Moonshot AI, una startup china que busca una valoración de 10 mil millones de dólares, lanzó Kimi K2.5, un modelo de lenguaje grande de código abierto con habilidades de programación, comparable a Claude Opus 4.5, que en ese momento era el modelo más avanzado de Anthropic.

Los usuarios del nuevo modelo Moonshot pronto notaron algo sospechoso: Kimi K2.5 se refería a sí mismo como Claude.

“Kim-K2.5 cree que es un asistente de IA llamado Claude”, señaló un usuario en la plataforma social X. “¿Crisis de identidad o conjunto de entrenamiento?”

Que Kimi-K2.5 se llame Claude es “muy probable” que sea una señal de que el modelo fue destilado a partir de las salidas de Claude, según Nathan Lambert, líder de post-entrenamiento en el Instituto Allen para la IA.

De hecho, el juego clandestino de gato y ratón de mayor riesgo en el mundo actualmente se desarrolla en la carrera por la supremacía en inteligencia artificial.

A principios de esta semana, Anthropic, una startup de IA con sede en San Francisco, publicó una entrada en su blog documentando casos de ataques de destilación en sus modelos por parte de tres “tigres de IA” de China, alegando que los laboratorios entrenaron sus IA usando los grandes modelos de lenguaje de Anthropic. Los laboratorios chinos - DeepSeek, Moonshot AI y MiniMax (HK:100) - usaron colectivamente 24,000 cuentas fraudulentas para aprender de Claude de Anthropic, según la compañía estadounidense.

Los representantes de DeepSeek, MiniMax, Moonshot AI y Anthropic no respondieron de inmediato a la solicitud de comentarios de MarketWatch.

Los ataques de destilación, intentos de extraer de manera maliciosa la propiedad intelectual de un modelo de IA de alto rendimiento, llegan en un momento crucial para Anthropic y la industria de IA en general. Anthropic acaba de cerrar una ronda de financiación que valúa a la startup en 380 mil millones de dólares. También enfrenta las secuelas de un tenso enfrentamiento con el Departamento de Defensa de EE. UU. sobre cómo puede usar sus modelos la agencia gubernamental.

Anthropic no es la única laboratorio en la frontera que documenta ataques de destilación.

A principios de este mes, tanto OpenAI como Google DeepMind de Alphabet (GOOG) (GOOGL) identificaron un aumento en los intentos de extracción de modelos.

La controversia surge a medida que se ha vuelto claro que la IA ahora es un pilar crítico de la economía estadounidense y sus prácticas militares, un activo estratégico para la nación en el escenario mundial.

Los incidentes reportados por Anthropic son “solo la punta del iceberg del uso real de este tipo de generación de datos”, dijo Lambert. Pero se requiere mucha sutileza para diferenciar entre un ataque de destilación y una empresa que usa un modelo de IA con fines legítimos, agregó.

Anthropic no ofrece acceso comercial a Claude en China por razones de seguridad nacional, según la compañía. Pero esa política no puede impedir que las empresas chinas accedan a Claude fuera de China. Las empresas estadounidenses proyectan gastar billones de dólares en innovación en IA, y si los laboratorios chinos pueden desviar la tecnología para construir modelos comparables a una fracción del costo, podrían hacer que las ventajas en hardware y I+D de EE. UU. sean marginales.

“La dimensión de seguridad nacional, el riesgo de que capacidades de IA de frontera terminen en sistemas militares, es algo que hay que tomar en serio”, dijo Lukasz Olejnik, consultor tecnológico independiente y becario senior visitante en el Departamento de Estudios de Guerra en King’s College London, a MarketWatch.

Sin embargo, la ética de la destilación es algo turbia, dado que muchos LLM se entrenaron con datos de terceros y materiales con derechos de autor, a menudo sin permiso explícito, señaló Olejnik. Y la práctica de la destilación se usa en muchos contextos no maliciosos.

¿Práctica válida o violación?

La destilación ha existido en alguna forma durante mucho tiempo, según Christopher Caen, CEO de Mill Pond Research. “Es otra versión de raspado, que ha sido un problema desde el primer día”, dijo Caen, refiriéndose a cómo Claude de Anthropic y otros LLM se han entrenado con grandes cantidades de material con derechos de autor de internet.

La destilación implica entrenar un modelo más débil para imitar las distribuciones de probabilidad de un modelo más potente, a menudo analizando millones de respuestas de API para revertir la lógica detrás de la inteligencia del modelo. La técnica subyacente de entrenar un modelo con las salidas de otro es muy común en los laboratorios de IA para optimización interna, dijo Lambert del Instituto Allen.

“Muchos académicos e institutos de investigación técnicamente violan los términos de servicio en una interpretación estricta”, dijo Lambert. Anthropic ha utilizado la destilación para crear modelos más pequeños y rápidos, como Claude 3 Haiku y Claude 3.5 Sonnet.

Según Anthropic, los tres laboratorios chinos generaron más de 16 millones de intercambios con Claude a través de revendedores no autorizados de API. La mayor parte, 13 millones, se atribuyó a MiniMax, que afirma que su modelo atiende a más de 212 millones de usuarios y más de 130,000 clientes y desarrolladores empresariales.

Lea: ¿Olvidaron todos DeepSeek? Lo que Wall Street está malinterpretando sobre la IA china

Anthropic afirmó que otros 3.4 millones de intercambios provienen de Moonshot, respaldado por los gigantes tecnológicos chinos Tencent (HK:700) y Alibaba (BABA) (HK:9988). Más de 150,000 intercambios se rastrearon hasta DeepSeek, que brevemente sumió en pánico a las empresas de IA estadounidenses el año pasado cuando debutó su modelo de razonamiento R1.

Theo Browne, fundador y CEO de la startup de IA T3 Chat, dijo a MarketWatch que 16 millones de intercambios “realmente no son mucho”, señalando que su negocio alcanza ese volumen de uso la mayoría de los meses. Pero a medida que el entrenamiento de IA avanza más allá de preguntas y respuestas simples hacia flujos de trabajo más complejos, las empresas usan grandes modelos de lenguaje para generar datos sintéticos para entrenar, según Browne y Lambert.

“No sería sorprendente si la mayoría de ellas usaran modelos estadounidenses para partes de sus pipelines de datos sintéticos”, dijo Browne.

La diferencia clave entre las acciones de una empresa como la de Browne o investigadores universitarios y las de Minimax o DeepSeek puede atribuirse a varias cosas. La principal, según Kyle Chan, investigador del think tank Brookings Institution que estudia las empresas tecnológicas chinas y la política industrial, es la geopolítica.

“Si están ‘haciendo trampa’ con los modelos estadounidenses, eso significa que China puede obtener alguna ventaja o una posición ventajosa” sobre la competencia, dijo Chan. “Y eso podría desafiar o amenazar el liderazgo de EE. UU. en este espacio.”

Olejnik, de King’s College London, dijo que aunque la destilación “se usa rutinariamente para construir versiones más pequeñas, rápidas y baratas de sistemas existentes”, Anthropic y otros laboratorios probablemente están señalando un fenómeno donde “miles de cuentas falsas eludieron el control de acceso para la extracción sistemática de capacidades del modelo que tomó años y miles de millones de dólares desarrollar.”

Chan afirmó que, si bien los laboratorios chinos claramente usan la destilación como una herramienta para perfeccionar sus modelos, probablemente no sea la única razón de sus avances. Añadió que algunos líderes en IA en EE. UU. han calificado los informes técnicos publicados por los laboratorios como impresionantes, lo que indica que han desarrollado algunas “capacidades fundamentales.”

“Es difícil decir cuánto importa la destilación para los modelos de IA chinos”, dijo Chan. “Necesitas tener un cierto nivel de capacidad para incluso poder aprovechar ese tipo de datos.”

Más: Cómo la computación cuántica podría convertirse en la próxima frontera en seguridad nacional

La destilación también tiene posibles ramificaciones más allá de permitir que laboratorios o empresas de IA menos financiadas desarrollen modelos comparables.

En su entrada en el blog, Anthropic advirtió que los laboratorios extranjeros pueden usar sus modelos destilados para permitir que “gobiernos autoritarios” desplieguen IA de frontera para vigilancia masiva y ciberataques. También puede hacer que la IA avanzada sea más accesible para grupos que de otra manera serían incapaces de cometer delitos mayores, han dicho expertos.

“Es probable que la IA permita a ciberdelincuentes con habilidades relativamente bajas atacar a empresas con mayor rapidez y escala a nivel global este año”, dijo Dragonfly, un servicio de análisis de riesgos e inteligencia de seguridad propiedad de Dow Jones, matriz de MarketWatch, en un informe esta semana.

Amazon Threat Intelligence (AMZN) dijo en un informe del 20 de febrero que un actor malicioso utilizó múltiples servicios de IA para comprometer más de 600 firewalls en decenas de países.

Y el miércoles, la firma de ciberseguridad Gambit Security reveló que aproximadamente 150 gigabytes de datos fueron robados de 10 entidades gubernamentales mexicanas y una sola institución financiera por un hacker que usó Claude y ChatGPT de OpenAI. Le tomó a un solo actor un mes después de su primera brecha para llevar a cabo el ataque, según Gambit. Dependieron de más de 1,000 indicaciones a Claude Code respaldadas por análisis de datos realizados por ChatGPT.

“La IA no solo ayudó, funcionó como el equipo operativo: escribiendo exploits, construyendo herramientas, automatizando la exfiltración”, dijo Gambit. “Claude ejecutó el ataque bajo la dirección del atacante, y OpenAI analizó datos en apoyo para acelerar los esfuerzos de ejecución del ataque de Claude.”

La verdadera batalla es por el motor

¿Qué impide a cualquier laboratorio de IA, no solo DeepSeek, MiniMax y Moonshot, hacer el mismo tipo de destilación? “Absolutamente nada”, según Caen de Mill Pond Research.

Detener tales prácticas será increíblemente difícil sin legislación, dijo Lambert del Instituto Allen, quien sugirió que esto podría ser un objetivo de Anthropic para llamar la atención sobre el asunto. En su blog, Anthropic afirmó que la industria necesitaría trabajar con los responsables políticos para combatir la destilación generalizada.

(MÁS A SEGUIR) Dow Jones Newswires

28-02-2026 08:00ET

Copyright © 2026 Dow Jones & Company, Inc.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado

Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanea para descargar la aplicación de Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)