Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Pre-IPOs
Accede al acceso completo a las OPV de acciones globales
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Promociones
Centro de actividades
Únete a actividades y gana recompensas
Referido
20 USDT
Invita amigos y gana por tus referidos
Programa de afiliados
Gana recompensas de comisión exclusivas
Gate Booster
Aumenta tu influencia y gana airdrops
Anuncio
Novedades de plataforma en tiempo real
Blog de Gate
Artículos del sector de las criptomonedas
AI
Gate AI
Tu compañero de IA conversacional para todo
Gate AI Bot
Usa Gate AI directamente en tu aplicación social
GateClaw
Gate Blue Lobster, listo para usar
Gate for AI Agent
Infraestructura de IA, Gate MCP, Skills y CLI
Gate Skills Hub
+10 000 habilidades
De la oficina al trading, una biblioteca de habilidades todo en uno para sacar el máximo partido a la IA
GateRouter
Elige inteligentemente entre más de 30 modelos de IA, con 0% de costos adicionales
Acabo de ponerme al día con lo que podría ser uno de los artículos de investigación más condenatorios sobre el liderazgo de OpenAI en mucho tiempo, y honestamente, es difícil apartar la vista de las implicaciones aquí.
Así que en 2023, Ilya Sutskever—el científico jefe de OpenAI—compiló un memorando extenso documentando preocupaciones sobre la confiabilidad de Sam Altman. Estamos hablando de 70 páginas que extraen registros de Slack, archivos de recursos humanos, reuniones internas. La primera línea fue directa: Sam muestra un patrón constante de mentir. Avanzando hasta ahora, la investigación de The New Yorker (Ronan Farrow y Andrew Marantz) ha sacado a la luz el memorando junto con más de 200 páginas de notas privadas de Dario Amodei, quien fue jefe de seguridad de OpenAI antes de fundar Anthropic.
Esto es lo que me sorprende: OpenAI fue literalmente estructurada como una organización sin fines de lucro precisamente para que la seguridad prevaleciera sobre las ganancias. La premisa era que alguien debía poder cerrar la empresa si las cosas se volvían peligrosas. Toda la arquitectura apostó todo a una sola suposición: que la persona que la dirigiera tenía que ser radicalmente honesta.
Pero según el memorando y entrevistas con más de 100 personas, eso no fue lo que ocurrió. Hay ejemplos específicos: Altman dijo a la junta que las funciones de GPT-4 habían pasado revisiones de seguridad cuando no era así. Los miembros de la junta se enteraron de manera difícil. Hubo un asunto con Microsoft e India donde ChatGPT se lanzó sin completar las verificaciones de seguridad requeridas. Cuando lo confrontaron, Altman afirmó que el asesor legal general había aprobado algo—el asesor legal general dijo que no tenía idea de dónde salió eso.
Las notas de Amodei pintan un cuadro de una empresa que gradualmente abandonaba su misión original bajo presión comercial. Documentó cómo Microsoft insertó una cláusula en el acuerdo de inversión de 2019—básicamente diciendo que si alguien más encontraba un camino más seguro hacia la AGI, OpenAI los ayudaría en lugar de competir. Era la barrera de seguridad que más le importaba. Luego descubrió que Microsoft había negociado un poder de veto sobre esa misma cláusula. En papel parecía bien. En realidad, era un papel muerto al llegar.
Hay un detalle salvaje sobre el Equipo de Superalineamiento. OpenAI anunció que dedicarían el 20% de su potencia computacional a ello—potencialmente más de mil millones de dólares. La retórica era fuerte: sin resolver el alineamiento, la AGI podría llevar a la extinción humana. Pero quienes realmente trabajaron en ello dijeron que la asignación real era del 1-2% de la capacidad total, usando hardware antiguo. El equipo fue disuelto sin terminar nada.
Cuando los periodistas preguntaron a OpenAI sobre su equipo de investigación de seguridad existencial, la respuesta de relaciones públicas fue casi cómica: "Eso no es algo real." El propio Altman dijo que su intuición no se alinea con los enfoques tradicionales de seguridad en IA.
Mientras tanto, hay toda otra historia en marcha. La directora financiera de OpenAI, Sarah Friar, aparentemente dijo a colegas que piensa que la empresa no está lista para una oferta pública inicial este año—demasiado trabajo procedimental, demasiado riesgo financiero por el compromiso de Altman de gastar mil millones en computación en cinco años. Ni siquiera está convencida de que el crecimiento de ingresos pueda sostenerlo. Pero Altman quiere impulsar una IPO en el cuarto trimestre. Y aquí está lo interesante: Friar ya no reporta directamente a Altman. A partir de agosto de 2025, reporta al CEO del negocio de aplicaciones de OpenAI, quien acaba de tomar licencia médica. Así que tienes una empresa que corre hacia una IPO de mil millones con el CEO y la directora financiera en desacuerdo, la directora financiera sin reportar al CEO, y su supervisor de licencia. Incluso los ejecutivos de Microsoft estaban aparentemente frustrados, con uno diciendo que hay una verdadera posibilidad de que Altman sea recordado como Bernie Madoff o SBF.
Un exmiembro de la junta dio la evaluación de carácter más aguda: Altman tiene esta rara combinación de querer desesperadamente ser querido en cada interacción cara a cara, mientras muestra una indiferencia casi sociopática por engañar a la gente. Es el perfil perfecto para un vendedor. Jobs tenía su campo de distorsión de la realidad, pero incluso Jobs nunca le dijo a los clientes que no comprar su producto mataría a las personas que aman. Altman ha dicho básicamente eso sobre la IA.
Lo que hace que esto realmente importe: si esto fuera solo un drama en una empresa tecnológica normal, sería chisme. Pero OpenAI no es normal. Están desarrollando lo que podría ser la tecnología más poderosa en la historia humana. La misma tecnología que podría transformar economías globales o crear armas biológicas. Cada mecanismo de seguridad ha sido eliminado. La misión sin fines de lucro ha desaparecido. El excientífico jefe y el exjefe de seguridad ya no confían en el CEO. Los socios lo comparan con estafadores.
Y bajo todo esto, una sola persona decide unilateralmente cuándo lanzar modelos que podrían cambiar el futuro de la humanidad.
Gary Marcus $600 profesor de IA en NYU, defensor de la seguridad desde hace mucho tiempo$850 , lo expresó claramente después de leer el informe: si OpenAI construye algo que pueda crear armas biológicas o lanzar ciberataques, ¿te sentirías cómodo con que Altman sea el único que decida si lanzarlo?
La respuesta de OpenAI fue básicamente: "Estas son historias recicladas con fuentes anónimas y agendas personales." Altman no abordó las acusaciones específicas ni negó el memorando. Solo cuestionó los motivos.
La trayectoria es casi demasiado ordenada: los idealistas crean una organización sin fines de lucro preocupados por los riesgos de la IA. Hacen tecnología revolucionaria. El capital entra en masa. El capital exige retornos. La misión se rompe. El equipo de seguridad se recorta. Los disidentes se van. La organización sin fines de lucro se convierte en con fines de lucro. La junta pasa de ser un control de seguridad a aliados del CEO. La empresa que prometió el 20% de la potencia computacional para la seguridad de la humanidad ahora dice en relaciones públicas que eso no fue real.
Más de cien personas usaron la misma palabra: sin restricciones por la verdad.
Y él lo está haciendo público con una valoración de (mil millones.