Cisco (CSCO.US) đã phát hành một loại chip mạng mới nhằm tăng tốc truyền tải thông tin trong các trung tâm dữ liệu lớn. Sản phẩm này có thể sẽ cạnh tranh trực tiếp với các sản phẩm liên quan của Broadcom (AVGO.US) và Nvidia (NVDA.US).
Cisco cho biết, dòng Silicon One G300 mới của họ — một chip chuyển mạch có tốc độ 102.4 Terabit mỗi giây — có khả năng cung cấp năng lượng cho các cụm AI quy mô hàng nghìn megawatt, hỗ trợ huấn luyện, suy luận và các tải trọng công việc trí tuệ nhân tạo thời gian thực, đồng thời tối đa hóa hiệu suất sử dụng bộ xử lý đồ họa và tăng thời gian hoàn thành nhiệm vụ lên 28%.
Chip Silicon One G300 của Cisco sẽ được sử dụng để điều khiển các hệ thống mới Cisco N9000 và Cisco 8000. Các hệ thống này được thiết kế dành cho các nhà cung cấp đám mây quy mô siêu lớn, các nhà cung cấp dịch vụ đám mây mới nổi, đám mây chủ quyền, nhà cung cấp dịch vụ và khách hàng doanh nghiệp.
Theo công ty, chip Silicon One G300, các hệ thống dựa trên chip này và các thiết bị quang học đi kèm sẽ bắt đầu được giao hàng trong năm nay.
Công ty đặc biệt nhấn mạnh rằng hệ thống mới cung cấp thiết kế làm mát bằng chất lỏng 100%, kết hợp công nghệ quang học mới, giúp khách hàng nâng cao hiệu quả năng lượng gần 70%.
Ngoài ra, Cisco còn nâng cấp kiến trúc mạng trung tâm dữ liệu Nexus One của mình, nhằm giúp các doanh nghiệp dễ dàng vận hành mạng AI của họ tại chỗ hoặc trên đám mây.
“Với quy mô huấn luyện và suy luận AI ngày càng mở rộng, việc di chuyển dữ liệu trở thành yếu tố then chốt cho tính toán AI hiệu quả; mạng lưới đã trở thành một phần của tính toán. Điều này không chỉ đơn thuần về GPU nhanh hơn, mà mạng phải cung cấp băng thông mở rộng và truyền dữ liệu đáng tin cậy, không bị tắc nghẽn,” Phó Chủ tịch điều hành nhóm phần cứng chung của Cisco, Martin Lund, cho biết.
Ông bổ sung, “Chúng tôi đã thúc đẩy hệ thống Cisco N9000 và 8000 mới của mình bằng Cisco Silicon One G300, mang lại trải nghiệm mạng hiệu suất cao, có thể lập trình và đảm bảo tính xác định, giúp mỗi khách hàng tận dụng tối đa tài nguyên tính toán của họ, mở rộng AI một cách an toàn và đáng tin cậy trong môi trường sản xuất.”
Tháng trước, Nvidia đã ra mắt nền tảng tính toán AI thế hệ tiếp theo Vera Rubin, bao gồm nhiều thành phần mạng và hạ tầng quan trọng. Đến tháng 6 năm 2025, Broadcom đã bắt đầu giao hàng dòng chip chuyển mạch Tomahawk6.
Trong khi đó, Cisco cũng công bố một loạt các tính năng nhằm giúp doanh nghiệp áp dụng công nghệ AI một cách an toàn, đồng thời duy trì tính toàn vẹn của các trí tuệ nhân tạo và kiểm soát các tương tác của chúng.
Các tính năng này bao gồm:
Danh sách vật liệu AI: cung cấp khả năng quan sát tập trung và quản lý các tài sản phần mềm AI (bao gồm giao thức ngữ cảnh mô hình và các phụ thuộc của bên thứ ba) để đảm bảo an toàn chuỗi cung ứng AI.
Thư mục MCP: phát hiện, kiểm kê và giúp quản lý rủi ro của các máy chủ MCP và trung tâm đăng ký trên các nền tảng công cộng và riêng tư, từ đó tăng cường quản trị AI.
Kiểm tra đội đỏ nâng cao các thuật toán: mở rộng phạm vi đánh giá an ninh AI.
Hàng rào bảo vệ thời gian thực cho trí tuệ nhân tạo: đảm bảo an toàn cho các trí tuệ nhân tạo và ứng dụng.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Cisco(CSCO.US) ra mắt chip mạng AI mới! Nhắm vào thị trường trung tâm dữ liệu lớn, trực tiếp cạnh tranh với Broadcom và Nvidia
Cisco (CSCO.US) đã phát hành một loại chip mạng mới nhằm tăng tốc truyền tải thông tin trong các trung tâm dữ liệu lớn. Sản phẩm này có thể sẽ cạnh tranh trực tiếp với các sản phẩm liên quan của Broadcom (AVGO.US) và Nvidia (NVDA.US).
Cisco cho biết, dòng Silicon One G300 mới của họ — một chip chuyển mạch có tốc độ 102.4 Terabit mỗi giây — có khả năng cung cấp năng lượng cho các cụm AI quy mô hàng nghìn megawatt, hỗ trợ huấn luyện, suy luận và các tải trọng công việc trí tuệ nhân tạo thời gian thực, đồng thời tối đa hóa hiệu suất sử dụng bộ xử lý đồ họa và tăng thời gian hoàn thành nhiệm vụ lên 28%.
Chip Silicon One G300 của Cisco sẽ được sử dụng để điều khiển các hệ thống mới Cisco N9000 và Cisco 8000. Các hệ thống này được thiết kế dành cho các nhà cung cấp đám mây quy mô siêu lớn, các nhà cung cấp dịch vụ đám mây mới nổi, đám mây chủ quyền, nhà cung cấp dịch vụ và khách hàng doanh nghiệp.
Theo công ty, chip Silicon One G300, các hệ thống dựa trên chip này và các thiết bị quang học đi kèm sẽ bắt đầu được giao hàng trong năm nay.
Công ty đặc biệt nhấn mạnh rằng hệ thống mới cung cấp thiết kế làm mát bằng chất lỏng 100%, kết hợp công nghệ quang học mới, giúp khách hàng nâng cao hiệu quả năng lượng gần 70%.
Ngoài ra, Cisco còn nâng cấp kiến trúc mạng trung tâm dữ liệu Nexus One của mình, nhằm giúp các doanh nghiệp dễ dàng vận hành mạng AI của họ tại chỗ hoặc trên đám mây.
“Với quy mô huấn luyện và suy luận AI ngày càng mở rộng, việc di chuyển dữ liệu trở thành yếu tố then chốt cho tính toán AI hiệu quả; mạng lưới đã trở thành một phần của tính toán. Điều này không chỉ đơn thuần về GPU nhanh hơn, mà mạng phải cung cấp băng thông mở rộng và truyền dữ liệu đáng tin cậy, không bị tắc nghẽn,” Phó Chủ tịch điều hành nhóm phần cứng chung của Cisco, Martin Lund, cho biết.
Ông bổ sung, “Chúng tôi đã thúc đẩy hệ thống Cisco N9000 và 8000 mới của mình bằng Cisco Silicon One G300, mang lại trải nghiệm mạng hiệu suất cao, có thể lập trình và đảm bảo tính xác định, giúp mỗi khách hàng tận dụng tối đa tài nguyên tính toán của họ, mở rộng AI một cách an toàn và đáng tin cậy trong môi trường sản xuất.”
Tháng trước, Nvidia đã ra mắt nền tảng tính toán AI thế hệ tiếp theo Vera Rubin, bao gồm nhiều thành phần mạng và hạ tầng quan trọng. Đến tháng 6 năm 2025, Broadcom đã bắt đầu giao hàng dòng chip chuyển mạch Tomahawk6.
Trong khi đó, Cisco cũng công bố một loạt các tính năng nhằm giúp doanh nghiệp áp dụng công nghệ AI một cách an toàn, đồng thời duy trì tính toàn vẹn của các trí tuệ nhân tạo và kiểm soát các tương tác của chúng.
Các tính năng này bao gồm:
Danh sách vật liệu AI: cung cấp khả năng quan sát tập trung và quản lý các tài sản phần mềm AI (bao gồm giao thức ngữ cảnh mô hình và các phụ thuộc của bên thứ ba) để đảm bảo an toàn chuỗi cung ứng AI.
Thư mục MCP: phát hiện, kiểm kê và giúp quản lý rủi ro của các máy chủ MCP và trung tâm đăng ký trên các nền tảng công cộng và riêng tư, từ đó tăng cường quản trị AI.
Kiểm tra đội đỏ nâng cao các thuật toán: mở rộng phạm vi đánh giá an ninh AI.
Hàng rào bảo vệ thời gian thực cho trí tuệ nhân tạo: đảm bảo an toàn cho các trí tuệ nhân tạo và ứng dụng.