Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Pre-IPOs
Accede al acceso completo a las OPV de acciones globales
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Detrás del "Escándalo de Mentiras" de OpenAI: un ejemplo clásico de un fallo sistémico
Escrito por: Centro de Investigación Web 4
El mayor problema filosófico no es “¿se puede confiar en alguien?”, sino “¿cómo diseñar un sistema que haga que la confianza sea innecesaria?”. De lo contrario, estamos recurriendo a una estructura de gobernanza del siglo XIX para afrontar el juego de poder más fuerte del siglo XXI.
01 Un reportaje de investigación que sacudió Silicon Valley
El 6 de abril de 2026, The New Yorker publicó un reportaje de investigación en profundidad completado tras 18 meses, en el que se reveló una historia interna de OpenAI que aún hoy sigue inquietando a muchos de los que conocen detalles.
El material central de este reportaje consiste en un memorando interno de 70 páginas compilado por el ex científico jefe de OpenAI, Ilya Sutskever, en el otoño de 2023, y en más de 200 páginas de notas privadas conservadas por Dario Amodei, cofundador de Anthropic. Tras la publicación del reportaje, todas las evidencias apuntan a una misma conclusión: Sam Altman, el timón de OpenAI, presenta un patrón de conducta de “mentir de forma constante”.
Esto no es un rumor tecnológico común. Es una cuestión sistémica sobre si los máximos dirigentes de una de las empresas tecnológicas más poderosas de la historia humana merecen ser confiados.
02 Este no es un problema solo de Altman
Si entiendes el asunto solo desde ese ángulo, te estás perdiendo el problema verdaderamente importante.
Los medios de comunicación generalistas se preguntan: ¿Altman merece ser confiado?
Pero la pregunta que realmente vale la pena hacer es esta: cuando una tecnología capaz de cambiar la civilización humana se entrega a un diseño institucional de “autoconciencia”, la crisis no es un accidente, sino una consecuencia inevitable.
A este fenómeno le hemos puesto un nombre: disfunción estructural de la gobernanza de la IA.
Esto no es un problema de una sola persona, Altman. Es una enfermedad común de toda la industria de la IA.
La confianza es una de las palabras que más aparecen en el campo de la IA. Casi todas las empresas de IA te dirán esto: confía en nosotros, priorizamos la seguridad, nuestra tecnología beneficiará a la humanidad. Pero la investigación de The New Yorker revela una realidad brutal: OpenAI nunca ha establecido ninguna estructura institucional que haga que la confianza sea innecesaria.
La decisión clave de esta organización la toma una sola persona o, como mucho, un pequeño grupo. No hay contrapesos externos. No hay mecanismos de transparencia obligatorios. Las promesas son herramientas, no restricciones.
En El mito de Sísifo, Camus escribió: “Juzgar si la vida vale la pena vivirla equivale a responder a la pregunta filosófica fundamental”. La misma lógica se aplica al campo de la IA: cuando la tecnología es capaz de cambiar la civilización y las restricciones institucionales son tan frágiles, ¿cómo podemos construir un sistema que no necesite depender de la integridad personal?
03 La lista de promesas traicionadas
El reportaje de investigación de The New Yorker enumera una lista completa de “promesas traicionadas”.
La primera es la negociación con Microsoft de 2019. En ese momento, OpenAI estaba pasando de ser una organización sin fines de lucro a convertirse en una entidad de “beneficio con tope de ganancias”. Dario Amodei, cofundador de Anthropic, propuso en la negociación una cláusula central de seguridad, “fusión y asistencia”: es decir, si otras empresas están más cerca de la AGI en términos de seguridad, OpenAI debe detener la competencia e incorporarse a la otra. Ese era su punto de no retorno en la negociación. Después de firmarse el contrato, Amodei descubrió que Microsoft tenía el derecho de veto sobre esa fusión, haciendo que la cláusula quedara efectivamente vacía. Cuando lo confrontó a Altman cara a cara, Altman al principio negó que existiera dicha cláusula, hasta que Amodei pidió a un compañero que lo corroborara en el acto; entonces Altman lo admitió y argumentó “no lo recuerdo”. Amodei escribió en sus notas privadas: “Se traicionó el 80% del estatuto”.
La segunda es el compromiso de capacidad de cómputo de 2023. OpenAI anunció de forma muy destacada la creación de un “equipo de súper alineación”, prometiendo dedicar el 20% de la capacidad computacional de la empresa a ello. Pero los conocedores revelaron que, en la práctica, el equipo solo recibió entre 1% y 2% de la capacidad, y que además utilizaba los chips más antiguos y peores. Cuando el responsable, Jan Leike, protestó, la respuesta de la cúpula directiva fue fría y tajante: “Ese compromiso nunca fue realista”. Fíjate aquí en la memoria selectiva: prometen hacer el 20%, en realidad entregan el 1%-2% y luego declaran que “el compromiso no era realista”. No es una desviación de ejecución, es un olvido sistemático.
Esto no es un problema de integridad. Es una manifestación inevitable del fallo del sistema. Cuando el poder se concentra en una sola persona y esa persona tiene una inclinación innata a debilitar el efecto vinculante de los compromisos, las promesas inevitablemente se olvidarán de forma sistemática, se redefinirán y se justificarán racionalmente. No es una deficiencia de Altman únicamente; es una característica compartida por cualquier estructura de poder centralizado.
04 Por qué los denunciantes (whistleblowers) siempre fracasan
Ilya Sutskever escribió en un memorando presentado ante el consejo: “Cualquiera que se dedique a construir una tecnología capaz de cambiar la civilización asumirá una responsabilidad sin precedentes, pero al final, quienes terminan ocupando esos puestos suelen ser personas interesadas en el poder”.
Aquí hay una paradoja profunda: los que más necesitan ser sometidos a restricciones, a menudo son los que más ansían obtener poder. Y los diseños institucionales existentes no están preparados para esa paradoja.
Cuando Ilya decidió emitir una advertencia desde dentro, no denunció ante organismos reguladores externos, porque en la industria de la IA casi no existe regulación externa; tampoco organizó una acción colectiva de los empleados, porque era un científico, no un activista. Sus únicas cartas eran un documento y, en el consejo, la posibilidad de que hubiera alguien con buen juicio.
El resultado, todos lo conocemos: en noviembre de 2023, el consejo efectivamente despidió a Altman, pero cinco días después, bajo la presión triple de capital, la opinión pública y los intereses de los empleados, el consejo se desintegró por completo; Altman volvió como rey y Ilya, que intentó hacer sonar la alarma, fue expulsado del núcleo del poder.
Esto no es solo una historia de “Altman es demasiado poderoso”. Es una historia sobre el diseño del sistema: en una organización con un nivel alto de concentración del poder, la falla del mecanismo de denuncias es estructural, no accidental. La razón es sencilla: el activo del denunciante es la reputación y las perspectivas profesionales que le otorga su complicidad con el empleador. Una vez que la organización decide negar, retrasar y marginar, el individuo casi no tiene forma de resistirse. La esencia de una estructura centralizada consiste en un sistema que dificulta la entrada de voces externas y la amplificación de voces internas.
La misma historia ocurrió con Dario Amodei. Cuando descubrió que no podía cambiar desde dentro la cultura de seguridad de OpenAI, eligió otra vía: marcharse, fundar Anthropic y aplicar con su propia institución sus valores. Es una retirada honorable, pero no una victoria del sistema, porque depende de la creencia personal del fundador y no de garantías institucionales.
El problema central de la gobernanza de la IA no es “cómo formar más líderes de IA con conciencia”, sino “cómo diseñar un sistema que funcione incluso cuando los líderes carezcan de conciencia”.
05 Blockchain no es una panacea, pero falta esa pieza del rompecabezas
Aquí planteo una opinión que tal vez sorprenda a lectores fuera del mundo de blockchain: el valor central de blockchain no es emitir tokens, ni la especulación en Web 3, sino una innovación de paradigma en una tecnología de gobernanza: la externalización de la confianza.
¿Qué significa externalizar la confianza? Los sistemas tradicionales dependen de “confiar en alguna institución o en alguna persona”. El enfoque de blockchain es totalmente distinto: trasladar la confianza de las personas a las reglas y el código. No depende de un tercero en quien confiar, sino de reglas transparentes y pruebas verificables.
Las deficiencias de la gobernanza de la IA radican justamente en que carece por completo de ese tipo de mecanismo de confianza externalizada. Los compromisos de OpenAI son juzgados por OpenAI mismo según el cumplimiento. Esto no es regulación, es autoevaluación. El mundo externo no puede verificar de manera independiente si realmente dedican el 20% de su capacidad de cómputo a la investigación de seguridad; tampoco puede comprobar por sí mismo si el proceso de publicación de sus modelos realmente recibió la aprobación del comité de seguridad. La transparencia es una opción, no un requisito estructural.
Blockchain ofrece una ruta de solución posible. No se trata de decir que colocar los modelos de IA en la cadena resuelve el problema—la tecnología no puede resolver los problemas del sistema—, sino de que un mecanismo de registros transparentes y verificables puede hacer que el comportamiento de los sistemas de IA sea más transparente y auditable. Por ejemplo, un registro de decisiones de IA basado en blockchain puede permitir que cada actualización clave del modelo y cada decisión de asignación de capacidad queden registradas en la cadena y no se puedan alterar. Esto no convertirá el sistema de IA en perfecto, pero al menos hará más difícil que se “olvide sistemáticamente la promesa”.
Por supuesto, esta solo es una dirección, no una bala de plata. La tecnología en sí no puede sustituir la gobernanza. Pero en una época en la que la gobernanza de la IA casi no existe, cualquier propuesta capaz de hacer el poder más transparente y el contrapeso más estructurado merece discutirse seriamente.
06 Una interrogación aún más profunda
La lección verdadera de la crisis de OpenAI no consiste en qué tipo de persona es Altman.
Sino en esto: cuando una tecnología que podría determinar el rumbo de la civilización humana cae dentro de un marco institucional “basado en la autoconciencia”, el riesgo no proviene de que la tecnología se descontrole, sino de que falle la institución.
En la historia humana, cada vez que ocurre una gran revolución tecnológica, va acompañada de una iteración en los modelos de gobernanza. La energía nuclear trajo la Agencia Internacional de Energía Atómica y el sistema de no proliferación nuclear. Internet trajo regulaciones de protección de datos y normas de ciberseguridad. Cada tecnología capaz de alterar la estructura del poder obliga a la humanidad a crear nuevos marcos institucionales para gestionarla.
La AGI es la primera tecnología que podría cambiar la civilización sin que la humanidad haya establecido aún un marco de gobernanza eficaz. Ese marco no puede depender de la moral personal de ningún fundador; no puede depender de las promesas autoasumidas de ninguna empresa. Tiene que ser un sistema institucional estructural, con contrapesos y sin depender de la autoconciencia de nadie.
Y por el momento, no lo tenemos.
Sobre ese memorando de 70 páginas de Ilya Sutskever, la investigación de The New Yorker reconstruye su contenido central: Ilya expresó con claridad ante el consejo su juicio: considera que Altman no debería ser quien controle el botón de la AGI.
Ese documento constituyó la chispa que desencadenó el escándalo global de OpenAI en 2023. El consejo, efectivamente, tomó la decisión de despedirlo basándose en ello. Pero durante los cinco días posteriores, toda la estructura de poder de la industria eligió su propio camino.
No es una historia de que los buenos ganen a los malos, ni de que los malos ganen a los buenos. Es una historia sobre el sistema. En un buen sistema, algunas acciones de Altman estarían limitadas; en un sistema fallido, incluso los denunciantes más bienintencionados son devorados por el poder.
La humanidad está entrando en una era en la que la AGI podría cambiar la civilización. Y los sistemas con los que gestionamos ese tiempo aún se quedan en el siglo XIX.
No es el fracaso de ninguna persona en particular. Es un caso clásico de fallo en el diseño institucional.
Y la lección verdadera no es “no confíes en Altman”; es “construir un sistema en el que cualquiera pueda ser cuestionado, pueda ser sometido a contrapeso y no pueda escapar de restricciones transparentes”.
La confianza es necesaria. Pero en la era de la IA, la confianza no basta. Lo que necesitamos es ese sistema que haga que la confianza sea innecesaria.
(Este artículo se compila a partir del reportaje de investigación de The New Yorker del 6 de abril de 2026, las declaraciones oficiales de OpenAI y la recopilación de información pública. Los datos llegan hasta abril de 2026.)