Thử thách quyền bá chủ của Nvidia H100! IBM mô phỏng chip mạng thần kinh nhân tạo của não người, giúp cải thiện hiệu suất gấp 14 lần và giải quyết bài toán tiêu thụ điện năng của mô hình AI

Nguồn gốc: Xinzhiyuan

Nguồn hình ảnh: Được tạo bởi AI không giới hạn

Mới đây, IBM đã tung ra chip AI analog 14nm hoàn toàn mới, hiệu suất gấp 14 lần GPU hàng đầu, có thể khiến H100 đáng đồng tiền bát gạo.

Địa chỉ giấy:

Hiện tại, trở ngại lớn nhất trong việc phát triển AI thế hệ mới là mức tiêu thụ năng lượng đáng kinh ngạc của nó. Các nguồn lực cần thiết cho AI không thể tăng trưởng bền vững.

Mặt khác, IBM đang nghiên cứu các cách để định hình lại điện toán AI. Một trong những thành tựu của họ là phương pháp tính toán trí nhớ mô phỏng/trí tuệ nhân tạo mô phỏng, có thể giảm mức tiêu thụ năng lượng bằng cách sử dụng các tính năng chính của mạng lưới thần kinh chạy trong não sinh học.

Cách tiếp cận này giảm thiểu thời gian và công sức chúng ta dành cho việc tính toán.

Sự độc quyền của Nvidia sắp bị lật đổ?

## Bản thiết kế mới nhất của IBM cho tương lai của AI: Chip AI tương tự tiết kiệm năng lượng hơn 14 lần

Theo báo cáo của truyền thông nước ngoài Insider, Dylan Patel, nhà phân tích trưởng của công ty nghiên cứu chất bán dẫn SemiAnalysis, đã phân tích rằng chi phí vận hành hàng ngày của ChatGPT đã vượt quá 700.000 đô la Mỹ.

ChatGPT yêu cầu rất nhiều sức mạnh tính toán để tạo ra câu trả lời dựa trên lời nhắc của người dùng. Hầu hết các chi phí phát sinh trên các máy chủ đắt tiền.

Trong tương lai, chi phí cho các mô hình đào tạo và cơ sở hạ tầng vận hành sẽ ngày càng tăng cao.

IBM đã công bố trên tạp chí Nature rằng con chip mới này có thể giảm áp lực xây dựng và vận hành các doanh nghiệp AI có tính sáng tạo như Midjourney hoặc GPT-4 bằng cách giảm mức tiêu thụ năng lượng.

Các chip analog này được chế tạo khác với chip kỹ thuật số, có thể xử lý tín hiệu analog và hiểu độ dốc trong khoảng từ 0 đến 1, nhưng chỉ dành cho các tín hiệu nhị phân khác nhau.

Tính toán bộ nhớ mô phỏng/AI mô phỏng

Và cách tiếp cận mới của IBM là mô phỏng tính toán bộ nhớ, hay gọi tắt là mô phỏng AI. Nó làm giảm mức tiêu thụ năng lượng bằng cách khai thác một tính năng chính của mạng lưới thần kinh hoạt động trong bộ não sinh học.

Trong não của con người và các động vật khác, sức mạnh (hoặc “trọng lượng”) của các khớp thần kinh quyết định sự giao tiếp giữa các tế bào thần kinh.

Đối với các hệ thống AI tương tự, IBM lưu trữ các trọng số khớp thần kinh này trong các giá trị độ dẫn của các thiết bị bộ nhớ điện trở có kích thước nanomet (chẳng hạn như bộ nhớ thay đổi pha PCM) và sử dụng định luật mạch để giảm nhu cầu liên tục gửi dữ liệu giữa bộ nhớ và bộ nhớ. bộ xử lý, thực hiện thao tác Multiply-accumulate (MAC) - thao tác chính trong DNN.

Hiện đang cung cấp năng lượng cho nhiều nền tảng AI tổng quát là H100 và A100 của Nvidia.

Tuy nhiên, nếu IBM lặp lại nguyên mẫu chip và đưa nó ra thị trường đại chúng thành công, con chip mới này rất có thể sẽ thay thế Nvidia trở thành trụ cột mới.

Chip AI analog 14nm này có thể mã hóa 35 triệu thiết bị bộ nhớ thay đổi pha cho từng thành phần và có thể mô phỏng tới 17 triệu tham số.

Và con chip này bắt chước cách thức hoạt động của bộ não con người, với vi mạch thực hiện các phép tính trực tiếp trong bộ nhớ.

Hệ thống của chip có thể đạt được khả năng nhận dạng và phiên âm giọng nói hiệu quả với độ chính xác gần bằng độ chính xác của phần cứng kỹ thuật số.

Con chip này đạt được khoảng 14 lần, và các mô phỏng trước đây cho thấy hiệu suất sử dụng năng lượng của phần cứng này thậm chí gấp 40 đến 140 lần so với các GPU hàng đầu hiện nay.

Mảng thanh ngang PCM, lập trình và xử lý tín hiệu số

Cuộc cách mạng AI mang tính tổng quát này mới chỉ bắt đầu. Mạng lưới thần kinh sâu (DNN) đã cách mạng hóa lĩnh vực AI, trở nên nổi bật với sự phát triển của các mô hình cơ bản và AI tổng quát.

Tuy nhiên, việc chạy các mô hình này trên kiến trúc điện toán toán học truyền thống sẽ hạn chế hiệu suất và hiệu quả sử dụng năng lượng của chúng.

Mặc dù đã đạt được nhiều tiến bộ trong việc phát triển phần cứng cho hoạt động suy luận AI, nhiều kiến trúc trong số này có các bộ nhớ và bộ xử lý riêng biệt về mặt vật lý.

Điều này có nghĩa là các mô hình AI thường được lưu trữ ở các vị trí bộ nhớ riêng biệt và các tác vụ điện toán yêu cầu xáo trộn dữ liệu liên tục giữa bộ nhớ và đơn vị xử lý. Quá trình này có thể làm chậm đáng kể khả năng tính toán, hạn chế hiệu quả sử dụng năng lượng tối đa có thể đạt được.

Đặc tính hiệu suất của thiết bị PCM, sử dụng cấu hình pha và độ dẫn để lưu trữ trọng số khớp thần kinh kiểu tương tự

Chip tăng tốc trí tuệ nhân tạo dựa trên bộ nhớ thay đổi pha (PCM) của IBM đã loại bỏ hạn chế này.

Bộ nhớ thay đổi pha (PCM) có thể thực hiện việc tích hợp tính toán và lưu trữ, đồng thời thực hiện trực tiếp phép nhân vectơ ma trận trong bộ nhớ, tránh vấn đề truyền dữ liệu.

Đồng thời, chip AI tương tự của IBM thực hiện khả năng tăng tốc suy luận trí tuệ nhân tạo hiệu quả thông qua tích hợp lưu trữ và điện toán cấp phần cứng, đây là một tiến bộ quan trọng trong lĩnh vực này.

Hai thách thức chính của việc mô phỏng AI

Để hiện thực hóa khái niệm AI mô phỏng, cần phải vượt qua hai thách thức chính:

  1. Độ chính xác tính toán của mảng bộ nhớ phải tương đương với các hệ thống kỹ thuật số hiện có

  2. Mảng bộ nhớ có thể giao tiếp liền mạch với các đơn vị điện toán kỹ thuật số khác và cấu trúc truyền thông kỹ thuật số trên chip trí tuệ nhân tạo analog

IBM sản xuất chip tăng tốc trí tuệ nhân tạo dựa trên bộ nhớ thay đổi pha tại trung tâm công nghệ của họ ở Albany Nano.

Con chip này bao gồm 64 lõi tính toán bộ nhớ tương tự và mỗi lõi chứa các đơn vị khớp thần kinh dải chéo 256 × 256.

Và được tích hợp vào mỗi chip là một bộ chuyển đổi tương tự sang số nhỏ gọn dựa trên thời gian để chuyển đổi giữa thế giới analog và kỹ thuật số.

Bộ xử lý kỹ thuật số nhẹ trong chip cũng có thể thực hiện các chức năng kích hoạt nơ-ron phi tuyến đơn giản và các hoạt động mở rộng quy mô.

Mỗi lõi có thể được coi như một ô có thể thực hiện phép nhân vectơ ma trận và các hoạt động khác được liên kết với một lớp (chẳng hạn như lớp chập) của mô hình mạng thần kinh sâu (DNN).

Ma trận trọng số được mã hóa thành giá trị độ dẫn mô phỏng của thiết bị PCM và được lưu trữ trên chip.

Một bộ xử lý kỹ thuật số toàn cầu được tích hợp ở giữa mảng lõi của chip để thực hiện một số thao tác phức tạp hơn phép nhân vectơ ma trận, điều này rất quan trọng đối với một số loại thực thi mạng thần kinh (chẳng hạn như LSTM).

Đường dẫn truyền thông kỹ thuật số được tích hợp trên chip giữa tất cả các lõi và các đơn vị xử lý kỹ thuật số toàn cầu để truyền dữ liệu giữa các lõi và giữa các lõi với các đơn vị toàn cầu.

a: ảnh chụp nhanh tự động hóa thiết kế điện tử và ảnh vi mô chip, bạn có thể thấy 64 lõi và 5616 miếng đệm

b: Sơ đồ các thành phần khác nhau của chip, bao gồm 64 lõi, 8 đơn vị xử lý kỹ thuật số toàn cầu và liên kết dữ liệu giữa các lõi

c: Cấu trúc của lõi tính toán trong bộ nhớ dựa trên PCM

d: Cấu trúc của bộ xử lý số toàn cầu cho các phép tính liên quan đến LSTM

Sử dụng chip, IBM đã tiến hành nghiên cứu toàn diện về độ chính xác tính toán của điện toán bộ nhớ analog và đạt được độ chính xác 92,81% trên bộ dữ liệu hình ảnh CIFAR-10.

a: Cấu trúc mạng ResNet-9 cho CIFAR-10

b: cách ánh xạ mạng này lên chip

c: độ chính xác của thử nghiệm CIFAR-10 do phần cứng triển khai

Đây là độ chính xác cao nhất được báo cáo cho đến nay đối với một con chip sử dụng công nghệ tương tự.

IBM cũng kết hợp liền mạch điện toán trong bộ nhớ tương tự với nhiều đơn vị xử lý kỹ thuật số và cấu trúc truyền thông kỹ thuật số.

Phép nhân ma trận đầu vào-đầu ra 8 bit của chip có thông lượng diện tích đơn vị là 400 GOPS/mm2, cao hơn 15 lần so với các chip điện toán bộ nhớ đa lõi dựa trên bộ nhớ điện trở trước đây, đồng thời đạt được hiệu quả sử dụng năng lượng đáng kể.

Trong nhiệm vụ dự đoán ký tự và tạo chú thích hình ảnh, IBM đã so sánh kết quả đo được trên phần cứng với các phương pháp khác, đồng thời trình diễn cấu trúc mạng, lập trình trọng số và kết quả đo lường của các tác vụ liên quan chạy trên chip AI mô phỏng.

Các phép đo LSTM để dự đoán ký tự

Các phép đo mạng LSTM để tạo chú thích hình ảnh

quá trình lập trình trọng lượng

**Hào của Nvidia không đáy? **

Sự độc quyền của Nvidia dễ bị phá vỡ đến vậy?

Naveen Rao là một doanh nhân chuyển sang lĩnh vực công nghệ thần kinh, người đã cố gắng cạnh tranh với Nvidia, nhà sản xuất trí tuệ nhân tạo hàng đầu thế giới.

Rao nói: "Mọi người đều đang phát triển trên Nvidia. Nếu bạn muốn tung ra phần cứng mới, bạn phải bắt kịp và cạnh tranh với Nvidia."

Rao đã làm việc trên các con chip được thiết kế để thay thế GPU của Nvidia tại một công ty khởi nghiệp được Intel mua lại, nhưng sau khi rời Intel, anh ấy đã sử dụng chip của Nvidia trong KhảmML, một công ty khởi nghiệp phần mềm do anh ấy lãnh đạo.

Rao cho biết Nvidia không chỉ mở ra khoảng cách rất lớn với các sản phẩm khác về chip mà còn đạt được sự khác biệt bên ngoài chip bằng cách tạo ra một cộng đồng lớn các lập trình viên AI ——

Các lập trình viên AI đã và đang sử dụng công nghệ của công ty để đổi mới.

Trong hơn một thập kỷ, Nvidia đã xây dựng được vị thế dẫn đầu gần như không thể phủ nhận trong việc sản xuất chip có thể thực hiện các tác vụ AI phức tạp như nhận dạng hình ảnh, khuôn mặt và giọng nói, cũng như tạo văn bản cho các chatbot như ChatGPT.

Công ty mới nổi một thời trong ngành này đã có thể đạt được sự thống trị trong lĩnh vực sản xuất chip AI vì họ đã sớm nhận ra các xu hướng trong AI, chip được chế tạo tùy chỉnh cho các nhiệm vụ đó và phát triển phần mềm quan trọng hỗ trợ phát triển AI.

Kể từ đó, đồng sáng lập và CEO của Nvidia, Jensen Huang đã nâng tầm cho Nvidia.

Điều này khiến Nvidia trở thành nhà cung cấp duy nhất để phát triển AI.

Theo công ty nghiên cứu Omdia, trong khi Google, Amazon, Meta, IBM và các hãng khác cũng sản xuất chip AI thì Nvidia hiện chiếm hơn 70% doanh số bán chip AI.

Vào tháng 6 năm nay, giá trị thị trường của Nvidia đã vượt quá 1 nghìn tỷ USD, trở thành nhà sản xuất chip có giá trị nhất thế giới.

Các nhà phân tích của FuturumGroup cho biết: “Khách hàng sẽ đợi 18 tháng để mua hệ thống Nvidia thay vì mua chip có sẵn từ các công ty khởi nghiệp hoặc đối thủ cạnh tranh khác. Thật không thể tin được”.

NVIDIA, định hình lại các phương pháp tính toán

Jensen Huang đồng sáng lập Nvidia vào năm 1993, sản xuất chip hiển thị hình ảnh trong trò chơi điện tử. Các bộ vi xử lý tiêu chuẩn vào thời điểm đó thực hiện tốt các phép tính phức tạp theo trình tự, nhưng Nvidia đã sản xuất GPU có thể xử lý đồng thời nhiều tác vụ đơn giản.

Năm 2006, Jensen Huang đã tiến thêm một bước nữa. Ông đã phát hành một công nghệ phần mềm có tên CUDA giúp lập trình GPU cho các tác vụ mới, biến GPU từ chip đơn mục đích thành chip đa năng hơn có thể đảm nhận các công việc khác trong các lĩnh vực như mô phỏng vật lý và hóa học.

Vào năm 2012, các nhà nghiên cứu đã sử dụng GPU để đạt được độ chính xác giống như con người trong các nhiệm vụ như xác định mèo trong hình ảnh, một bước đột phá lớn và là tiền đề cho những phát triển gần đây như tạo hình ảnh từ tín hiệu văn bản.

Nỗ lực này, mà Nvidia ước tính tiêu tốn hơn 30 tỷ USD trong một thập kỷ, khiến Nvidia không chỉ là nhà cung cấp linh kiện. Ngoài việc hợp tác với các nhà khoa học và khởi nghiệp hàng đầu, công ty đã tập hợp được một đội ngũ trực tiếp tham gia vào các hoạt động AI như tạo và đào tạo các mô hình ngôn ngữ.

Ngoài ra, nhu cầu của những người thực hành đã khiến Nvidia phát triển nhiều lớp phần mềm quan trọng ngoài CUDA, bao gồm cả thư viện gồm hàng trăm dòng mã dựng sẵn.

Về mặt phần cứng, Nvidia đã nổi tiếng nhờ liên tục cung cấp chip nhanh hơn sau mỗi hai hoặc ba năm. Năm 2017, Nvidia bắt đầu điều chỉnh GPU để xử lý các phép tính AI cụ thể.

Tháng 9 năm ngoái, Nvidia thông báo họ đang sản xuất một con chip mới có tên H100, con chip này đã được cải tiến để xử lý các hoạt động được gọi là Transformer. Những tính toán như vậy đang chứng tỏ là nền tảng của các dịch vụ như ChatGPT, mà Huang gọi là “khoảnh khắc iPhone” của trí tuệ nhân tạo.

Ngày nay, trừ khi sản phẩm của các nhà sản xuất khác có thể hình thành sự cạnh tranh tích cực với GPU của Nvidia, nếu không thì mới có thể phá vỡ thế độc quyền hiện tại của Nvidia về sức mạnh tính toán AI.

Liệu chip AI tương tự của IBM có thể thực hiện được không?

Người giới thiệu:

Xem bản gốc
Nội dung chỉ mang tính chất tham khảo, không phải là lời chào mời hay đề nghị. Không cung cấp tư vấn về đầu tư, thuế hoặc pháp lý. Xem Tuyên bố miễn trừ trách nhiệm để biết thêm thông tin về rủi ro.
  • Phần thưởng
  • Bình luận
  • Chia sẻ
Bình luận
0/400
Không có bình luận
  • Ghim
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate.io
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • ไทย
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)