Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Pre-IPOs
Accede al acceso completo a las OPV de acciones globales
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
La criptocracia de la Casa Blanca, el AI y el zar David Sacks renuncian y atacan: Anthropic tiene un buen código empresarial, pero hace negocios con pánico regulatorio.
El exsultante de la Casa Blanca, David Sacks, quien fue el zar de IA y criptomonedas, comenta públicamente por primera vez sobre la industria de IA tras su renuncia: en el podcast All-In, en una discusión titulada “El ciclo generacional de Anthropic, el pánico de OpenAI, y las fosas de IA”, señala con agudeza los problemas y contradicciones de Anthropic.
Sacks, quien sirvió como “zar de IA y criptomonedas” en la Casa Blanca durante 130 días, finalizó su mandato el 26 de marzo de 2026, y pasó a ser copresidente del Consejo Asesor de Ciencia y Tecnología de la Presidencia (PCAST). Tras su salida, esta es su primera declaración pública como “comentador de la industria” sobre el modelo de negocio de las empresas de IA, lo cual ya es una noticia en sí misma.
Anthropic encontró el dinero correcto
Sacks otorga una evaluación excepcionalmente positiva al modelo de negocio de Anthropic, con una conclusión en solo tres palabras: “el código correcto.”
En el podcast All-In, señala que Anthropic apuesta por la generación de código, apuntando con precisión a uno de los principales puntos débiles del presupuesto IT empresarial. Cuando las empresas compran herramientas de IA, lo que más convence a los CFO para gastar dinero no es “asistentes más inteligentes”, sino “mejorar la eficiencia de los ingenieros y reducir costos laborales.” El rendimiento de Claude en escenarios de codificación ha sido fuerte, permitiendo que rápidamente gane buena reputación entre clientes corporativos.
Los números respaldan esta evaluación: los ingresos anuales recurrentes (ARR) de Anthropic superan los 30 mil millones de dólares, superando por primera vez a OpenAI, que tiene aproximadamente 25 mil millones. Solo en febrero de este año, el ARR mensual aumentó en 6 mil millones. Los clientes corporativos con contratos superiores a un millón de dólares pasaron de 500 a más de 1,000. La conclusión de Sacks es que la transformación empresarial de Anthropic no es casualidad, sino el resultado de una estrategia clara.
También menciona que Anthropic está expandiendo activamente las funciones de agentes, elevando a Claude de una simple herramienta de preguntas y respuestas a un agente automatizado capaz de ejecutar tareas de forma proactiva, alineándose con la próxima demanda empresarial de IA.
Comparación con OpenAI: la resaca de la expansión de consumo
La opinión de Sacks sobre OpenAI lleva un tono de “ya lo dije”.
Considera que, en los últimos años, OpenAI invirtió mucho en el ámbito de consumo — aplicaciones GPT, generación de videos con Sora, suscripciones a ChatGPT — intentando construir una marca popular. Pero este camino consume mucho dinero y genera ingresos lentamente, lo que finalmente obligó a OpenAI a volver al mercado empresarial, prometiendo a los inversores un retorno mínimo del 17.5% para mantener la confianza.
En el podcast, Sacks dice que el problema actual de OpenAI es que, aunque tiene gran presencia en el ámbito de consumo, su base comercial no es tan sólida como la del mercado empresarial. Anthropic no tomó caminos tortuosos y, en cambio, ha logrado adelantarse.
“Captura regulatoria” y crear pánico
Pero la crítica de Sacks no es solo elogiosa. Mientras elogia el modelo de negocio de Anthropic, también critica duramente su postura política.
Utiliza la expresión “estrategia sofisticada de captura regulatoria basada en el miedo” para describir la estrategia de cabildeo de Anthropic. La “captura regulatoria” se refiere a que las empresas participan activamente en la formulación de regulaciones, empaquetando reglas que les benefician como si fueran interés público, para que las decisiones regulatorias favorezcan sus objetivos comerciales.
Su crítica concreta es que Anthropic impulsa un “sistema de permisos obligatorios” —requiriendo que los modelos de IA obtengan autorización gubernamental antes de su despliegue—. Considera que, si se implementara, esta regulación afectaría poco a empresas con recursos para cumplirla, pero pondría enormes barreras a startups, obstaculizando la competencia y la innovación.
En otras palabras, Sacks acusa que: mientras Anthropic se presenta como defensora de la “seguridad de IA”, en realidad se beneficia de retrasar a sus competidores.
Cuestionamiento a Mythos: ¿es una verdadera amenaza o solo un pánico infundado?
Esta crítica se extiende en otro episodio del All-In Podcast, titulado “El auge de Anthropic y Mythos, y el fin del mundo”.
El equipo de seguridad de Anthropic publicó recientemente investigaciones sobre el modelo Mythos, afirmando que puede encontrar vulnerabilidades críticas en sistemas principales en pocas horas, generando amplio debate en la industria. Sacks cuestiona si esto es una evaluación técnica real o simplemente “una táctica”, o incluso una “rutina de pollo que dice que el cielo se cae” —una forma de pánico.
No descarta que Mythos pueda tener riesgos reales, pero deja claro que si estas narrativas se usan para impulsar regulaciones, deben ser sometidas a una revisión externa más rigurosa, en lugar de que Anthropic actúe como juez y parte.
$30B El apocalipsis de IA es una “autolesión” de EE. UU.
Sacks lleva esta crítica a un marco geopolítico más amplio. Advierte que si EE. UU. continúa sumergido en un ambiente de IA apocalíptica, será una forma de “auto-daño”.
Su lógica es que la competencia en IA entre EE. UU. y China está en marcha, y aunque EE. UU. lidera actualmente, dedicar demasiados recursos a regulaciones internas y debates sobre si la IA es demasiado peligrosa solo ralentizará su avance, permitiendo que China lo alcance. Esta postura coincide con su política durante su tiempo como zar de IA en la Casa Blanca, pero ahora, en calidad de comentarista, la expresa con mayor franqueza y sin cargas políticas.
Perspectiva desde la industria
La doble narrativa de Sacks revela la verdadera tensión en la industria de IA: no solo quién tiene modelos más potentes, sino cómo interactúan “la postura regulatoria”, “la penetración en el mercado empresarial” y “la competencia entre EE. UU. y China”.
El éxito de Anthropic en el ámbito empresarial — clientes multiplicados, ARR en auge, enfoque preciso en la codificación — es evidente. Pero la crítica de Sacks advierte que el poder de influencia de la política de Anthropic crece en paralelo con su éxito comercial, y que su papel como defensora y beneficiaria de la seguridad de IA merece una vigilancia más estricta.
Para las startups de IA en Taiwán y Asia, el riesgo de un “sistema de permisos obligatorios” también es relevante: si la regulación estadounidense se inclina en esa dirección, los obstáculos para despliegues transfronterizos solo aumentarán, no disminuirán.