“Thiếu bộ nhớ” lan rộng toàn cầu, trở thành nút thắt quan trọng trong cuộc đua AI? Một lãnh đạo khác của Thung lũng Silicon lên tiếng

robot
Đang tạo bản tóm tắt

Hiện nay, các doanh nghiệp trí tuệ nhân tạo (AI) đang cạnh tranh quyết liệt để giành lấy nhiều hơn các chip bộ nhớ. Toàn ngành đang đối mặt với tình trạng cung ứng nghiêm trọng: chi phí tăng cao, việc giao hàng sản phẩm bị trì hoãn, một số doanh nghiệp—đặc biệt là trong lĩnh vực điện tử tiêu dùng—đã bắt đầu tăng giá sản phẩm.

Giám đốc điều hành DeepMind của Google Demis Hassabis gần đây đã đề cập trong một cuộc phỏng vấn về “khủng hoảng bộ nhớ” đang lan rộng toàn cầu.

Ông cho biết, toàn bộ chuỗi cung ứng chip bộ nhớ đang bị hạn chế, thách thức về phần cứng “đang giới hạn rất nhiều việc triển khai AI”. Nhu cầu thị trường đối với Google Gemini và các mô hình AI khác đã vượt xa khả năng cung ứng hiện tại của công ty.

“Thêm vào đó, điều này cũng phần nào hạn chế các công trình nghiên cứu,” Hassabis nói. “Để thử nghiệm các ý tưởng mới với quy mô đủ lớn và xác nhận tính khả thi, cần rất nhiều chip hỗ trợ.”

Dù là các nhà nghiên cứu tại Google, Meta, OpenAI hay các tập đoàn công nghệ lớn khác, đều có nhu cầu cấp thiết về chip—và bộ nhớ là thành phần then chốt trong đó. Giám đốc điều hành Meta Mark Zuckerberg từng nói rằng, ngoài tài chính, một trong những điều các nhà nghiên cứu AI quan tâm nhất là có thể tiếp cận được càng nhiều chip càng tốt.

Hassabis chỉ ra rằng, chỉ cần còn hạn chế về năng lực sản xuất, sẽ hình thành “tắc nghẽn”.

“Toàn bộ chuỗi cung ứng đều trong tình trạng căng thẳng,” Hassabis nói, “Chúng tôi còn may mắn vì có các đơn vị xử lý tensor (TPU) riêng, có khả năng thiết kế chip tự chủ.”

Trong thời gian dài, Google đã tự phát triển các TPU để sử dụng nội bộ. Công ty cũng cho thuê TPU qua dịch vụ đám mây của mình cho khách hàng bên ngoài—động thái này cũng tạo áp lực lên Nvidia.

Nhưng ngay cả khi sở hữu TPU tự phát triển, Google vẫn không thể tránh khỏi thị trường bộ nhớ cạnh tranh khốc liệt. Hassabis nói: “Về cơ bản, các nhà cung cấp linh kiện chính vẫn rất hạn chế.”

Hiện tại, ba công ty chi phối sản xuất chip bộ nhớ toàn cầu: Samsung, Micron và SK Hynix. Các công ty này đang cố gắng đáp ứng nhu cầu của các doanh nghiệp AI quy mô lớn, đồng thời duy trì các khách hàng lâu dài trong lĩnh vực điện tử tiêu dùng, đặt ra nhiều thử thách.

Thêm vào đó, loại chip bộ nhớ mà các doanh nghiệp AI cần khác với các nhà sản xuất máy tính cá nhân (PC). Các nhà sản xuất mô hình ngôn ngữ lớn cần chip HBM (bộ nhớ băng thông cao).

Giám đốc điều hành Intel Chen Lihua gần đây cũng cảnh báo rằng, điểm nghẽn trong phát triển AI đã chuyển từ “công suất tính toán” sang “bộ nhớ” và hệ thống hạ tầng rộng hơn. Ông thẳng thắn nói rằng, tình trạng thiếu hụt bộ nhớ sẽ không được giải quyết trước năm 2028.

(Nguồn: Báo cáo ngày của Sở Giao dịch Khoa học và Công nghệ)

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
0/400
Không có bình luận
  • Ghim