Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Pre-IPOs
Accede al acceso completo a las OPV de acciones globales
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Google apunta públicamente a la red de centros de datos de ultra gran escala de 'Vergo' para 'IA de tipo agente'... fortalecer la capacidad de respuesta a retrasos y fallos
Google ha anunciado una red de centros de datos de gran escala y una infraestructura multiplataforma para la era de la ‘Inteligencia Artificial Agente (Agentic AI)’. A medida que el entorno de IA que llama a herramientas externas en milisegundos se vuelve cada vez más común, la competencia por infraestructura que reduzca la latencia y procese grandes volúmenes de cálculo de manera estable está en pleno auge.
El 24 de este mes, Google lanzó su nuevo sistema de red de infraestructura de IA, ‘Virgo Network’. Este sistema busca mejorar la velocidad de comunicación general entre los centros de datos, tanto dentro de los clústeres de aceleradores como entre recursos de memoria, cálculo y almacenamiento.
El núcleo es una estructura de red ‘plana’. Este método reduce los cuellos de botella al disminuir la cantidad de niveles que atraviesa la transmisión de datos. Según Google, Virgo Network puede conectar hasta 134,000 chips, incluidos los procesadores TPU 8t de octava generación utilizados para entrenamiento. Su ancho de banda bidireccional alcanza hasta 47 petabits por segundo (Pbps). La compañía afirma que, en comparación con la generación anterior, el ancho de banda por acelerador se ha multiplicado por más de cuatro.
Una parte destacada del anuncio es que, además de la competencia en velocidad pura, se enfatiza ampliamente la ‘resiliencia’. En clústeres de IA a gran escala, fallos, latencias y disminuciones en la velocidad de algunos dispositivos son casi inevitables. Google indica que para abordar esto, han combinado una función de ‘visibilidad’ que permite observar finamente el estado general de la red con software de recuperación y desviación automática. También han aplicado un plano de conmutación independiente para garantizar que, incluso en caso de latencia o fallos en la red, el rendimiento total no fluctúe bruscamente.
Google describe Virgo Network no como una simple expansión de los centros de datos existentes, sino como un producto de infraestructura independiente, cuyo diseño conceptual es ’ diseñar todo el campus como una supercomputadora’. La compañía sostiene que, mediante la monitorización del sistema en unidades inferiores a milisegundos, se puede optimizar la congestión instantánea y la gestión de búfer en todo el hardware y software. Esto es especialmente importante en entornos donde la IA agente necesita gestionar llamadas a herramientas, razonamiento y tareas de generación mejorada con recuperación (RAG).
Lanzamiento simultáneo de capas de conexión y seguridad que rompen las fronteras de la nube
Además de la red de centros de datos, Google también ha lanzado capas de conexión en la nube y seguridad para cargas de trabajo de IA agente. La compañía resume esta actualización en cuatro pilares: ‘Cálculo flexible’, ‘Conexión segura entre nubes’, ‘Capa de datos unificada’ y ‘Soberanía digital’.
Primero, ‘Cálculo flexible’ es una arquitectura diseñada para gestionar de manera más eficiente las fluctuaciones en la demanda de los agentes de IA. Como los servicios de IA a menudo experimentan picos repentinos en las solicitudes, Google explica que han mejorado la accesibilidad de la CPU para responder más rápidamente y de forma más económica a estas demandas. En particular, su diseño ofrece recursos de CPU optimizados para tareas como inferencia, orquestación de agentes y generación mejorada con recuperación, complementando la insuficiencia de las GPU.
Para ello, Google ha aplicado CPU C4N y M4N en máquinas virtuales (VM) basadas en Google Compute Engine y Google Kubernetes Service. Google afirma que este sistema puede procesar hasta 95 millones de paquetes de datos por segundo, hasta un 40% más rápido que los principales proveedores de la nube a gran escala.
En el ámbito de conexiones seguras entre nubes, la ‘puerta de enlace de agentes’ ocupa una posición central. Este controlador supervisa los permisos de acceso de los agentes de IA y controla y gestiona protocolos como el Protocolo de Contexto del Modelo (MCP) y el Protocolo entre Agentes (A2A). Se indica que esta puerta de enlace puede garantizar visibilidad y protección de los flujos de datos que circulan entre diferentes redes en entornos multicloud.
‘IA en la ubicación de los datos’, en lugar de ‘mover datos’
La capa de datos unificada se centra en permitir que la IA entienda y utilice directamente los datos dispersos en múltiples repositorios empresariales. Google afirma que la ‘Almacenamiento inteligente’ inyecta metadatos en los objetos de datos, transformando los datos tradicionales ‘estáticos’ en activos de conocimiento legibles por IA.
Una vez establecida esta arquitectura, puede aplicar búsquedas semánticas en diversos formatos de información como hojas de cálculo, documentos, PDFs e imágenes, además de realizar anotaciones automáticas y extracción de insights. Este método busca reducir la tendencia de los datos a quedar atrapados en ‘islas’ de almacenamiento específicas, ayudando a que los agentes de IA encuentren más rápidamente la información que necesitan.
El ‘catálogo de conocimientos’ publicado en conjunto conecta en forma gráfica el conocimiento interno de la empresa, ayudando a los agentes de IA a comprender mejor los procesos comerciales y el contexto. Google enfatiza que, mediante este enfoque, no es necesario mover datos por separado para optimizar el aprendizaje y la respuesta de la IA. En otras palabras, en lugar de trasladar los datos a una ubicación central, permite que los modelos de IA operen en el ‘entorno privado’ donde los datos residen.
Este lanzamiento indica que el foco de la competencia en IA se está desplazando rápidamente del rendimiento del modelo hacia la infraestructura de red, seguridad y datos que soportan su funcionamiento. En particular, con la introducción formal de la IA agente en los negocios, la baja latencia, la alta resiliencia y la gestión multicloud probablemente se convertirán en ventajas competitivas clave. La acción de Google se interpreta como una señal de que la competencia entre grandes tecnológicas por el dominio en infraestructura de IA se intensifica aún más.
Notas sobre TP AI Este resumen fue realizado con un modelo de lenguaje basado en TokenPost.ai. El contenido principal puede omitirse o no reflejar con precisión los hechos.