Google, extensión de implementación local de Gemini... ¿Se puede resolver la contradicción entre "control vs rendimiento" en la infraestructura de IA empresarial?

robot
Generación de resúmenes en curso

html

Más allá de la IA generativa, ha llegado la era de la «IA agente» capaz de ejecutar tareas por sí misma, y los estándares de diseño de infraestructura empresarial también están cambiando rápidamente. Especialmente en industrias reguladas, agencias gubernamentales y empresas con fuertes demandas de soberanía de datos, se exige una infraestructura «lista para IA» que permita ejecutar los modelos de IA más recientes en entornos internos, sin necesidad de transferir datos sensibles al exterior.

Para satisfacer estas necesidades, Google está ampliando su estrategia de infraestructura para que las empresas puedan usar sus propios modelos de IA y tecnologías en entornos locales. Muninder Sambi, vicepresidente y gerente general del departamento de redes y seguridad de Google, afirmó en el reciente evento Google Cloud Next: «Las empresas siempre han enfrentado la opción de cumplir con la soberanía y regulaciones o renunciar a estos principios y migrar a la nube. La nube distribuida de Google es la solución para llevar Gemini y las capacidades de IA de Google a entornos locales».

Gemini junto a NVIDIA, Dell, expandiéndose a redes internas

Google en colaboración con NVIDIA ($NVDA) y Dell Technologies ($DELL) soporta la ejecución de modelos basados en Gemini en entornos aislados de la red pública y en entornos locales conectados a internet. En particular, el modelo Gemini Flash ya soporta despliegues locales basados en GPUs NVIDIA Blackwell B200 y B300. Para las empresas, esto significa poder ejecutar cargas de trabajo de «IA soberana» sin que los datos salgan del entorno.

El vicepresidente Sambi enfatizó que esto no solo es ofrecer una «fábrica de IA», sino proporcionar un «motor de IA» que permita a las empresas construir su propio sistema de producción de IA. Para sectores como finanzas, salud, defensa y servicios públicos que enfrentan dificultades con la nube, esto representa un cambio que vale la pena seguir.

Kubernetes como sistema operativo sustantivo en la era de la IA

Con la expansión de la infraestructura de IA local, el papel de Kubernetes se vuelve cada vez más importante. Drew Bradstock, director senior de productos de Google Kubernetes y Google Compute Engine, comentó que Kubernetes ahora actúa como un «sistema operativo» que abarca tareas de IA como entrenamiento, inferencia e incluso aprendizaje reforzado.

Explicó que, en los primeros tiempos de la popularización de los grandes modelos de lenguaje, no estaba claro si Kubernetes podría convertirse en el núcleo de control de la IA, pero a medida que el ecosistema de código abierto evoluciona rápidamente hacia un entorno amigable con la IA, se ha convertido en la base para ejecutar agentes en entornos híbridos. En un contexto donde las empresas desean desplegar servicios de IA en múltiples entornos, los beneficios de la estandarización de Kubernetes se vuelven evidentes.

Ahora, los usuarios ya no están limitados solo a humanos

La expansión de la IA agente no solo cambia la forma en que operan las infraestructuras, sino que también está transformando la filosofía del diseño de productos. El director Bradstock señaló que el centro de experiencia para desarrolladores ya no tiene que ser necesariamente humano. Con la IA agente reemplazando en gran medida la escritura y operación de código, los documentos, interfaces e incluso las herramientas mismas están siendo rediseñadas para ser estructuras «fáciles de leer y usar por IA».

Él afirmó: «Las nuevas prácticas de DevOps están usando Claude y Gemini para gestionar tareas», y señaló que los entornos de usuario, documentos y diversas herramientas están siendo reorganizados en torno a «habilidades». Esto sugiere que, en el futuro, el software empresarial podría ir más allá de las interfaces diseñadas para humanos, desarrollándose en estructuras que permitan a los agentes de IA llamarlas y ejecutarlas directamente.

Objetivo principal: lograr «mantener el control» y «garantizar el rendimiento» simultáneamente

El núcleo de esta transformación es que las empresas ya no quieren tener que elegir entre el control de datos y el rendimiento de IA. La infraestructura de IA lista para IA ya no es solo una expansión de servidores, sino que se convierte en un diseño integral que combina soberanía de datos, recursos de GPU, despliegue de modelos, gobernanza y orquestación en un solo paquete.

Desde la perspectiva del mercado, la estrategia de Google muestra que las empresas de la nube están profundizando en los entornos locales y de nube híbrida. A medida que la adopción de IA por parte de las empresas se inicia formalmente, la clave del éxito ya no radica solo en el rendimiento del modelo, sino en si se puede desplegar en entornos operativos reales asegurando seguridad y flexibilidad.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado