Google công khai nhắm vào mạng lưới trung tâm dữ liệu siêu lớn 'Vergo' của 'AI dạng đại lý'... tăng cường khả năng xử lý độ trễ và đối phó sự cố

robot
Đang tạo bản tóm tắt

Google công bố mạng lưới trung tâm dữ liệu siêu lớn và hạ tầng đa đám mây cho thời đại ‘Trí tuệ nhân tạo tác nhân (Agentic AI)’. Khi môi trường AI gọi các công cụ bên ngoài trong vòng chưa đầy mili giây ngày càng phổ biến, cuộc cạnh tranh về hạ tầng giảm độ trễ và xử lý quy mô lớn ổn định đang diễn ra toàn diện.

Google ngày 24 đã phát hành hệ thống mạng hạ tầng AI mới ‘Virgo Network’. Hệ thống này nhằm nâng cao tốc độ truyền thông tổng thể của trung tâm dữ liệu, từ nhóm tăng tốc đến bộ nhớ, tính toán, lưu trữ và các tài nguyên khác.

Điểm cốt lõi là cấu trúc mạng ‘phi lớp’. Phương pháp này giảm số lượng lớp trung gian trong quá trình truyền dữ liệu để giảm điểm nghẽn. Theo Google, Virgo Network có thể kết nối tối đa 134.000 chip, bao gồm cả bộ xử lý TPU 8t thế hệ thứ 8 dùng để huấn luyện. Băng thông hai chiều tối đa đạt 47 petabit mỗi giây (Pbps). Công ty cho biết, so với thế hệ trước, băng thông của mỗi bộ tăng tốc đã tăng hơn 4 lần.

Phần đáng chú ý trong lần ra mắt này là, ngoài cạnh tranh về tốc độ thuần túy, còn nhấn mạnh toàn diện về ‘khả năng phục hồi’. Trong các tập đoàn AI quy mô siêu lớn, sự cố, độ trễ và giảm tốc của một số thiết bị gần như không thể tránh khỏi. Google cho biết, để giải quyết vấn đề này, họ kết hợp chức năng ‘tầm nhìn’ theo dõi trạng thái toàn bộ mạng lưới với phần mềm tự động vòng vo/phục hồi. Điểm đặc trưng còn bao gồm việc áp dụng một mặt phẳng chuyển mạch độc lập để đảm bảo ngay cả khi xảy ra độ trễ hoặc sự cố mạng, tổng thông lượng không bị dao động đột ngột.

Google mô tả Virgo Network không chỉ là mở rộng đơn thuần của các trung tâm dữ liệu hiện có, mà là một sản phẩm hạ tầng độc lập, với ý tưởng thiết kế ‘tưới toàn bộ khu vực như một siêu máy tính’. Công ty chủ trương, bằng cách giám sát trạng thái hệ thống trong vòng chưa đầy 1 mili giây, có thể tối ưu các vấn đề tắc nghẽn tức thời và quản lý bộ đệm trong toàn bộ phần cứng và phần mềm. Điều này đặc biệt quan trọng trong môi trường cần AI tác nhân xử lý đồng thời gọi công cụ, suy luận và tăng cường truy xuất (RAG).

Cùng lúc, ra mắt lớp kết nối và an ninh vượt qua ranh giới đám mây

Ngoài mạng trung tâm dữ liệu, Google còn phát hành lớp kết nối đám mây và an ninh dành cho tải trọng AI tác nhân. Công ty tóm tắt lần cập nhật này dựa trên bốn trụ cột: ‘tính linh hoạt của tính toán’, ‘kết nối an toàn đa đám mây’, ‘lớp dữ liệu thống nhất’ và ‘chủ quyền số’.

Trước tiên, ‘tính linh hoạt của tính toán’ là kiến trúc nhằm xử lý hiệu quả hơn các biến động nhu cầu của AI agent. Các dịch vụ AI thường gặp phải các đợt yêu cầu đột biến, Google giải thích rằng họ nâng cao khả năng truy cập CPU để phản ứng nhanh hơn, tiết kiệm hơn với nhu cầu này. Đặc biệt, thiết kế cung cấp các tài nguyên CPU tối ưu cho các nhiệm vụ như suy luận, phối hợp agent và truy xuất tăng cường, bổ sung cho GPU.

Để làm điều này, Google đã áp dụng CPU C4N và M4N trên các máy ảo (VM) dựa trên Google Compute Engine và Google Kubernetes Service. Google cho biết hệ thống này có thể xử lý tới 95 triệu gói dữ liệu mỗi giây, nhanh hơn tối đa 40% so với các nhà cung cấp đám mây quy mô lớn chính.

Trong lĩnh vực kết nối an toàn đa đám mây, ‘cổng agent’ được đặt ở vị trí trung tâm. Bộ điều khiển này giám sát quyền truy cập của AI agent, kiểm soát và quản lý các giao thức như Giao thức ngữ cảnh mô hình (MCP) và Giao thức giữa các agent (A2A). Nó cho biết, cổng này có thể đảm bảo khả năng quan sát và bảo vệ luồng dữ liệu di chuyển giữa các đám mây khác nhau.

‘AI đi tới nơi dữ liệu nằm’

Lớp dữ liệu thống nhất tập trung vào việc cho phép AI hiểu và sử dụng trực tiếp dữ liệu phân tán trong nhiều kho lưu trữ của doanh nghiệp. Google nói rằng, ‘lưu trữ thông minh’ sẽ thêm siêu dữ liệu cho các đối tượng dữ liệu, biến các ‘dữ liệu tĩnh’ truyền thống thành tài sản tri thức có thể đọc được bởi AI.

Khi kiến trúc này hình thành, nó có thể áp dụng tìm kiếm dựa trên ý nghĩa cho các dạng dữ liệu như bảng tính, tài liệu, PDF, hình ảnh, và tự động chú thích, trích xuất thông minh. Phương pháp này nhằm giảm hiện tượng ‘hòn đảo dữ liệu’ bị giới hạn trong các kho lưu trữ riêng biệt, giúp AI agent tìm kiếm thông tin nhanh hơn.

Cùng công bố ‘thư viện tri thức’ kết nối kiến thức nội bộ doanh nghiệp dưới dạng đồ họa, giúp AI agent hiểu rõ hơn về quy trình và ngữ cảnh kinh doanh. Google nhấn mạnh, qua cách này, không cần di chuyển dữ liệu riêng lẻ mà vẫn tối ưu hóa việc học và phản hồi của AI. Nói cách khác, phương pháp của họ không phải là chuyển dữ liệu về trung tâm, mà là để mô hình AI chạy trong ‘môi trường riêng’ của dữ liệu.

Lần ra mắt này cho thấy, trọng tâm cạnh tranh AI đang nhanh chóng chuyển từ hiệu năng mô hình sang hạ tầng mạng, an ninh và dữ liệu hỗ trợ vận hành mô hình. Đặc biệt, khi ‘AI tác nhân’ chính thức được đưa vào doanh nghiệp, độ trễ thấp, khả năng phục hồi cao và quản lý đa đám mây có thể trở thành các yếu tố cạnh tranh cốt lõi. Động thái của Google được xem như một tín hiệu cho thấy các tập đoàn công nghệ lớn cạnh tranh ngày càng quyết liệt hơn trong lĩnh vực hạ tầng AI.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Ghim