Google ha actualizado sus chips para IA y ha abierto el acceso a la plataforma de agentes - ForkLog: criptomonedas, IA, singularidad, futuro

Google 2025# Google actualizó sus chips para IA y abrió el acceso a la plataforma de agentes

La corporación Google presentó un conjunto de herramientas para crear agentes de IA, destinados a ayudar a las empresas a automatizar tareas. Paralelamente, se lanzó un fondo de $750 millones y se anunciaron nuevos procesadores de IA.

¡Que tengan un excelente #GoogleCloudNext!

Vea sesiones seleccionadas y sus momentos favoritos del discurso de apertura bajo demanda → https://t.co/Ss9VorZkOvhttps://t.co/VnbGXrIjvi

— Google Cloud (@googlecloud) 22 de abril de 2026

Software para agentes de IA

En la conferencia anual en Las Vegas, la división en la nube de la compañía mostró un conjunto de herramientas para crear agentes de IA y controlar su funcionamiento dentro de las empresas. Entre las novedades, un buzón especial donde los asistentes virtuales envían informes sobre el trabajo realizado.

La plataforma Gemini Enterprise Agent Platform recibirá dos nuevos módulos: Memory Bank y Memory Profile. Estos permitirán a los agentes guardar el historial de interacciones con los usuarios. Agent Simulation dará a los desarrolladores la posibilidad de probar más exhaustivamente el funcionamiento de las herramientas antes del lanzamiento.

Google presentó actualizaciones para el paquete de aplicaciones Workspace y describió un escenario en el que los agentes de IA cambian radicalmente la vida cotidiana de un trabajador común.

La corporación afirmó que los empleados podrán usar Gemini Enterprise para crear asistentes virtuales sin escribir código.

La compañía también anunció Projects, una plataforma para trabajo colaborativo, diseñada para facilitar la interacción entre empleados o con los operadores del soporte técnico.

La herramienta combina información de diferentes fuentes como Workspace, OneDrive de Microsoft y chats corporativos, permitiendo trabajar con el contexto necesario.

Nuevo fondo

La división Google Cloud anunció un fondo de $750 millones, destinado a ayudar a empresas de consultoría como McKinsey, Accenture y Deloitte a implementar agentes de IA en sus clientes.

El laboratorio DeepMind dará acceso anticipado a modelos de IA Gemini a empresas seleccionadas, antes de su lanzamiento oficial.

El capital se dirigirá a ayudar en la capacitación de ingenieros, en el desarrollo de agentes de IA a través de la plataforma corporativa y en la cofinanciación de proyectos y actividades previas a la venta.

«Las empresas de consultoría están en el centro de algunas de las mayores transformaciones que están ocurriendo en los clientes. Entienden la situación y aportan experiencia única en industrias específicas y conocimientos sobre procesos de negocio», afirmó Kevin Ichpuran, jefe del ecosistema de socios globales de Google Cloud.

Nuevos chips

La división Google Cloud presentó una nueva generación de procesadores tensoriales (TPU) de desarrollo propio. Los chips están diseñados para acelerar y abaratar los cálculos en el campo de la IA.

La línea incluye dos versiones:

  • TPU 8t — destinado al desarrollo de IA;
  • TPU 8i — más adecuado para inferencia.

Google ocupa una posición sólida entre los fabricantes de chips propios para IA, compitiendo con Nvidia. En los últimos meses, los TPU han tenido una demanda creciente en Silicon Valley.

Los nuevos procesadores almacenan más información, lo que reduce la latencia de respuesta.

«Se trata de cómo garantizar la menor latencia posible en la respuesta con el menor costo por operación», señaló Mark Lomeier, vicepresidente de infraestructura computacional de Google.

Para crear y lanzar servicios de IA, se utilizan sistemas capaces de procesar rápidamente grandes volúmenes de datos, encontrar conexiones y patrones en ellos, que luego se expresan matemáticamente. Los cálculos, la ejecución de programas y servicios se realizan en procesadores con gran capacidad de memoria integrada.

Este enfoque permite que la reacción de la IA sea prácticamente instantánea, ya que el componente no necesita consultar datos en fuentes externas.

El TPU 8t puede agruparse en clústeres de hasta 9600 unidades. Con estas escalas, el consumo de energía se vuelve uno de los factores clave. Los nuevos chips ofrecen un 124% más de rendimiento por vatio en comparación con la generación anterior. El TPU 8i — un 117%.

Recordemos que Google está en conversaciones con el Departamento de Defensa de EE. UU. sobre la posible integración de Gemini en los sistemas del Pentágono en todas las categorías de acceso a la información, desde abiertas hasta altamente confidenciales.

Ver original
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado