Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
#Gate广场四月发帖挑战
Empresa de datos AI Mercor confirma haber sufrido una importante brecha de datos, involucrando a clientes como OpenAI, Anthropic y otros
Según informes, la startup Mercor, que proporciona datos de entrenamiento para empresas de IA como OpenAI, Anthropic y Meta, confirmó haber sufrido una vulnerabilidad de seguridad significativa. El incidente se originó en un ataque a la cadena de suministro del biblioteca de código abierto LiteLLM, que es ampliamente utilizada por desarrolladores para conectar servicios de IA, con un promedio de millones de descargas diarias. El ataque fue llevado a cabo por el grupo de hackers TeamPCP, que insertó código malicioso en LiteLLM para robar credenciales. Otro grupo de hackers, Lapsus$, afirmó posteriormente haber obtenido hasta 4TB de datos de Mercor, incluyendo código fuente, registros de bases de datos, comunicaciones internas en Slack y videos de conversaciones en la plataforma. Según informes no confirmados, algunos conjuntos de datos de clientes de Mercor y detalles de proyectos de IA confidenciales podrían haber sido filtrados. Mercor indicó que tomó medidas rápidas para contener la situación y ha iniciado una investigación forense con terceros.
Este incidente es un ejemplo clásico de una reacción en cadena provocada por un “envenenamiento de la cadena de suministro”, que no solo expone la vulnerabilidad de la infraestructura de IA, sino que también pone en riesgo los datos de entrenamiento de gigantes como OpenAI.
1. Revisión de la cadena de ataque: de “herramienta” a “datos”
Origen del envenenamiento: el grupo de hackers TeamPCP comprometió la biblioteca de código abierto LiteLLM (puerta de enlace API de IA), publicando versiones con puertas traseras en PyPI (1.82.7/1.82.8).
Robo de credenciales: tras actualizar dependencias, Mercor y otras empresas fueron víctimas de código malicioso que silenciosamente robó sus credenciales en la nube y claves API.
Saqueo de datos: otro grupo de hackers, Lapsus$, utilizó estas claves para infiltrarse en la red interna de Mercor, robando aproximadamente 4TB de datos críticos y poniéndolos a la venta.
2. Valor de los datos filtrados
Según Lapsus$ y verificaciones de medios, los datos robados son altamente destructivos:
Confidencialidad de clientes: conjuntos de datos de entrenamiento, detalles de modelos no publicados y códigos internos relacionados con gigantes como OpenAI, Anthropic y Meta.
Privacidad personal: escaneos de pasaportes, videos de entrevistas y documentos de identidad de numerosos contratistas de plataformas (etiquetadores).
Información confidencial de la empresa: cerca de 1TB de código fuente, registros internos de Slack y datos del sistema de tickets.
3. Impacto potencial y riesgos
Seguridad de modelos: si los datos de entrenamiento (especialmente los datos de retroalimentación humana RLHF) se filtran, los atacantes podrían deducir vulnerabilidades del modelo y realizar ataques adversariales más precisos.
Crisis de cumplimiento: la exposición masiva de PII (información personal identificable) de contratistas podría resultar en multas astronómicas bajo regulaciones como GDPR.
Pérdida de confianza: como “banco de datos” en la cadena de valor de IA, la brecha de seguridad de Mercor obligará a los actores downstream a reevaluar los riesgos de la cadena de suministro de datos de terceros.
4. Estado actual y defensas
Respuesta de emergencia: las versiones maliciosas ya han sido retiradas, Mercor ha iniciado una investigación forense con terceros y notificó a sus clientes.
Recomendaciones de autoevaluación: si actualizaste LiteLLM a finales de marzo, revisa inmediatamente la versión y rota todas las credenciales en la nube y claves API. Los usuarios comunes deben estar atentos a posibles correos de phishing en el futuro.
Resumen en una frase: esto no solo es un incidente de seguridad de Mercor, sino una advertencia de alta intensidad sobre la situación actual del ecosistema de IA, que prioriza la funcionalidad sobre la seguridad.