เจนสัน หวง สัมภาษณ์ล่าสุด (ตอนที่ 2): ทำไม NVIDIA ถึงไม่ทำ Hyperscaler เอง?

ChainNewsAbmedia

ในการให้สัมภาษณ์ช่วงที่สองของ หวง เหรินซวี่ เขาตอบโต้โดยตรงถึงภัยคุกคามของ TPU และ ASIC ที่มีต่อ NVIDIA เขาเน้นว่า NVIDIA ไม่ได้ทำชิป AI เพียงแผ่นเดียว แต่เป็นแพลตฟอร์มการเร่งการคำนวณ โดยสาระสำคัญอยู่ที่การบูรณาการทั้งระบบนิเวศ เช่นเดียวกับสงครามชิประหว่างสหรัฐฯ และจีน การแข่งขันด้าน AI ไม่ใช่การชนะหรือแพ้กันที่จุดเดียว แต่ต้องดูว่าชั้นเทคโนโลยีทั้งหมดสามารถเติบโตไปพร้อมกันได้หรือไม่

เมื่อเผชิญกับคำถามว่า “แก่นแท้ของ AI คือการคูณเมทริกซ์จำนวนมาก แล้วทำไมไม่ให้สถาปัตยกรรมที่เฉพาะทางกว่าอย่าง TPU เป็นผู้นำ?” คำตอบของ หวง เหรินซวี่ คือ: การคูณเมทริกซ์สำคัญ แต่ไม่ใช่ทั้งหมดของ AI จากกลไก attention ใหม่, การผสมผสานแบบ SSM, การหลอมรวมของ diffusion และ autoregressive ไปจนถึงการรันแบบกระจายของโมเดลและนวัตกรรมเชิงสถาปัตยกรรม ความก้าวหน้าของ AI มักมาจากนวัตกรรมของอัลกอริทึม ไม่ใช่แค่การดันกฎของมัวร์ด้วยฮาร์ดแวร์เท่านั้น

ดังนั้น ถึงแม้ NVIDIA จะมีเงินสดจำนวนมาก และได้มีส่วนร่วมอย่างลึกซึ้งกับโครงสร้างพื้นฐานและชั้นโมเดลของ AI ผ่านการลงทุน CoreWeave, Nebius, Nscale รวมถึง OpenAI, Anthropic ฯลฯ แล้ว ทำไมมันไม่ลงมือทำเองเลยในฐานะผู้ให้บริการคลาวด์? คำตอบของ หวง เหรินซวี่ ก็ยังคงกลับไปที่ประโยคเดิม: ทำสิ่งที่จำเป็นให้มากที่สุด ทำสิ่งที่ไม่จำเป็นให้น้อยที่สุด นี่ไม่อยู่ในขอบเขตของ “หากพวกเราไม่ทำ ก็จะไม่มีใครทำ”

TPU และ ASIC ไม่ได้ไม่มีภัยคุกคาม แต่สนามรบของ NVIDIA ใหญ่กว่านี้

สำหรับแนวโน้มที่ Google TPU, AWS Trainium และแม้แต่ OpenAI, Anthropic รวมถึงลูกค้ารายใหญ่อื่น ๆ มีการพัฒนาเองหรือเลือกใช้ตัวเร่งความเร็วทางเลือก หวง เหรินซวี่ไม่ได้แสดงท่าทีแบบป้องกัน เขาย้อนโฟกัสกลับไปที่ “NVIDIA ไม่ได้ทำชิป AI แผ่นเดียว แต่ทำแพลตฟอร์มการเร่งการคำนวณ” หลายครั้ง

เขาย้ำว่า NVIDIA สร้าง accelerated computing ไม่ใช่ทำแค่ tensor processing AI แน่นอนเป็นหนึ่งในแอปพลิเคชันที่สำคัญที่สุดในวันนี้ แต่ GPU และ CUDA ที่ NVIDIA ทำได้ไกลกว่า AI อย่างมาก ยังครอบคลุมพลศาสตร์โมเลกุล, พลศาสตร์ควอนตัมของสี, การประมวลผลข้อมูล, พลศาสตร์ของไหล, ฟิสิกส์ของอนุภาค, การวิจัยและพัฒนายา, การสร้างภาพ และการคำนวณทางวิทยาศาสตร์อีกหลากหลายชนิด นี่ทำให้การเข้าถึงตลาดของ NVIDIA กว้างกว่ากลไก ASIC ที่ออกแบบมาเพื่อเวิร์กโหลดเดียวอย่างเดิมตั้งแต่แรก

เมื่อเผชิญกับคำถามว่า “แก่นแท้ของ AI คือการคูณเมทริกซ์จำนวนมาก แล้วทำไมไม่ให้สถาปัตยกรรม TPU ที่เฉพาะทางกว่านี้เป็นผู้นำ?” คำตอบของ หวง เหรินซวี่ คือ:

การคูณเมทริกซ์สำคัญ แต่ไม่ใช่ทั้งหมดของ AI จากกลไก attention ใหม่, การผสมผสานแบบ SSM, การหลอมรวมของ diffusion และ autoregressive ไปจนถึงการรันแบบกระจายของโมเดลและนวัตกรรมเชิงสถาปัตยกรรม ความก้าวหน้าของ AI มักมาจากนวัตกรรมของอัลกอริทึม ไม่ใช่แค่การดันกฎของมัวร์ด้วยฮาร์ดแวร์เท่านั้น

เขาพูดตรง ๆ เลยว่า: หากพึ่งแค่การลดขนาดทรานซิสเตอร์ ทุกปีอาจได้การเพิ่มขึ้นราว ๆ 25% เท่านั้น; แต่จาก Hopper ถึง Blackwell ของ NVIDIA สามารถทำการยกระดับประสิทธิภาพด้านพลังงานได้ถึง 35 เท่า และแม้กระทั่งระดับ 50 เท่า โดยไม่ได้อาศัยแค่กระบวนการผลิตเพียว ๆ แต่เป็นการออกแบบร่วมกันของโมเดล อัลกอริทึม เครือข่าย หน่วยความจำ สถาปัตยกรรมระบบ และ CUDA

ดังนั้น หวง เหรินซวี่จึงบรรยาย NVIDIA ว่าเป็นบริษัท “ด้านการออกแบบร่วมสุดขั้ว” มันไม่ได้แค่ทำ GPU แต่ยังปรับแก้ตัวประมวลผล การเชื่อมต่อ เครือข่าย ไลบรารี อัลกอริทึม และทั้งระบบให้สอดคล้องกัน หากไม่มีชั้น CUDA ที่เป็นแพลตฟอร์มแบบตั้งโปรแกรมได้สูง การเพิ่มประสิทธิภาพข้ามชั้นขนาดใหญ่แบบนี้ก็คงทำได้ยาก

คุณค่าของ CUDA: ฐานติดตั้ง ความน่าเชื่อถือ และความเป็นสากลทั่วโลก

เมื่อพิธีกรตั้งข้อสงสัยว่า เนื่องจากลูกค้ารายใหญ่ เช่น OpenAI, Anthropic, Google, AWS ต่างก็เขียน kernel เอง และทำการปรับปรุงเฟรมเวิร์กเองแล้ว แล้ว CUDA ยังมีคูเมืองที่แข็งแกร่งขนาดนั้นอยู่ไหม? หวง เหรินซวี่ตอบด้วยมุมมองสามด้าน

ประการแรก คือ ความครบถ้วนและความเชื่อถือได้ของระบบนิเวศ NVIDIA สามารถให้การสนับสนุนระดับพื้นฐานจำนวนมากสำหรับเฟรมเวิร์กอย่าง Triton, vLLM, SGLang ทำให้นักวิจัยสามารถสร้างบนฐานที่ถูกพิสูจน์แล้วอย่างเพียงพอ สำหรับนักพัฒนา สิ่งที่น่ากลัวที่สุดไม่ใช่เขียนผิดด้วยตัวเอง แต่คือการไม่สามารถตัดสินได้ว่าความผิดพลาดเกิดจากตัวเขาเองหรือเกิดจากแพลตฟอร์มชั้นล่าง CUDA มีคุณค่าอย่างหนึ่งตรงที่มันถูก “รันซ้ำจนผ่านการใช้งานจริง” จนคุ้มค่าที่จะไว้ใจ

ประการที่สอง คือ ฐานติดตั้งที่มหาศาล หวง เหรินซวี่กล่าวอย่างตรงไปตรงมา ถ้าคุณเป็นผู้พัฒนาเฟรมเวิร์กหรือเป็นผู้พัฒนาโมเดล สิ่งที่คุณต้องการมากที่สุดคือ install base คุณคงไม่อยากเขียนซอฟต์แวร์ให้ใช้ได้กับตัวคุณเองเท่านั้น แต่ต้องการให้มันทำงานบนเครื่องให้ได้มากที่สุด จาก A10, A100 ไปจนถึง H100, H200 และต่อไปยังระบบคลาวด์กับอุปกรณ์ปลายทาง เครื่องจักรกล และเวิร์กสเตชัน CUDA แทบมีอยู่ทุกที่ ฐานติดตั้งแบบนี้หมายความว่า พัฒนา一次 ก็สามารถครอบคลุมระบบจำนวนมากทั่วโลกได้

ประการที่สาม คือความเป็นสากลข้ามคลาวด์และข้ามสถานการณ์ หวง เหรินซวี่ย้ำว่า NVIDIA เป็นแพลตฟอร์มการคำนวณที่เป็น “หนึ่งในไม่กี่ราย” ที่สามารถอยู่ร่วมได้ทั้งในคลาวด์หลักทุกรูปแบบและสภาพแวดล้อมแบบ on-prem สำหรับบริษัทด้าน AI นี่หมายถึงพวกเขาไม่จำเป็นต้องล็อกอินกับผู้ให้บริการคลาวด์รายเดียวเร็วเกินไป และยังง่ายขึ้นในการนำผลิตภัณฑ์ไปใช้งานในตลาดและสถานการณ์ที่แตกต่างกัน

กล่าวอีกนัยหนึ่ง คุณค่าของ CUDA ไม่ใช่แค่ “ความสะดวกของ toolchain” แต่คือการที่มันผสานความครบถ้วนของระบบนิเวศ ฐานติดตั้งทั่วโลก และความเป็นสากลของสถานการณ์เข้าด้วยกัน กลายเป็นฟลายวีลที่ยากจะสั่นคลอนได้อย่างง่าย

อัตรากำไรขั้นต้นสูงไม่ได้พึ่งภาษีซอฟต์แวร์ แต่พึ่ง “โทเค็นที่ได้ต่อทุกวัตต์” และต้นทุนการถือครองทั้งหมด

สำหรับคำวิจารณ์จากภายนอกว่า NVIDIA สามารถรักษาอัตรากำไรขั้นต้นสูงได้เพราะการผูกขาดของ CUDA เป็นหลัก และในอนาคตหากลูกค้ารายอื่นมีความสามารถในการเขียน kernel เองและสร้างสแต็กซอฟต์แวร์ทางเลือกได้มากขึ้น อัตรากำไรสูงจะถูกกัดกร่อนหรือไม่ คำตอบของ หวง เหรินซวี่มั่นใจมาก

เขาชี้ว่า ทีมวิศวกรที่ NVIDIA ทุ่มไปสนับสนุนบรรดาห้องทดลอง AI ต่าง ๆ ภายในนั้นมี “มากจนตกใจ” เพราะว่า GPU ไม่ได้ง่ายที่จะคุมเหมือน CPU หวง เหรินซวี่เปรียบ CPU เป็น Cadillac รถที่ขับง่าย เรียบลื่น ทุกคนขึ้นได้ด้วยตัวเอง; ส่วนตัวเร่งของ NVIDIA ก็เหมือนรถแข่ง F1 ในทฤษฎีทุกคนขับได้ แต่การรีดสมรรถนะออกมาจนสุดต้องใช้ความเชี่ยวชาญระดับสูง

NVIDIA ยังใช้ AI ช่วยสร้างและปรับแต่ง kernel ของตัวเองจำนวนมาก ดังนั้นเวลาทำการปรับจูนร่วมกับลูกค้า มักจะสามารถยกระดับโมเดลหรือสแต็กใดสักอย่างได้อีก 50%, 2 เท่า และบางครั้งถึง 3 เท่า ประสิทธิภาพ สำหรับลูกค้าที่มีฝูง GPU ขนาดใหญ่ การเพิ่มประสิทธิภาพแบบนี้แทบเท่ากับการเพิ่มรายได้เป็นสองเท่าโดยตรง

หวง เหรินซวี่ยังยืนยันอีกขั้นว่า แพลตฟอร์มของ NVIDIA มี performance ต่อ TCO ที่ดีที่สุดทั่วโลก นั่นคือมีประสิทธิภาพด้านต้นทุนรวมเพื่อการครอบครองที่ดีที่สุด เขากล่าวว่า ไม่มีใครสามารถพิสูจน์ได้อย่างแท้จริงว่า TPU, Trainium หรือแพลตฟอร์มอื่นใดดีกว่า NVIDIA ทั้งในแง่ต้นทุนรวมและประสิทธิภาพ และในตลาดก็ขาดการสาธิตแบบเปิด เชื่อถือได้ และเทียบเชิงตรงไปตรงมาที่สามารถตรวจสอบได้

ในมุมมองของเขา ความสำเร็จของ NVIDIA ไม่ได้มาจากลูกค้าถูกผูกติดกับ CUDA โดยตรง แต่เพราะมันสามารถผลิตโทเค็นได้มากที่สุดจากพลังงานเดียวกัน และจากการลงทุนทรัพยากรทุน (capex) เท่ากัน แล้วนำไปแปลงเป็นรายได้สูงสุด สำหรับลูกค้าที่สร้างดาต้าเซ็นเตอร์ระดับ 1GW สิ่งที่สำคัญที่สุดไม่ใช่ว่าชิปเดี่ยวราคาถูกหรือไม่ แต่คือทั้งดาต้าเซ็นเตอร์สามารถสร้างรายได้สูงสุดได้หรือไม่ ตราบใดที่ NVIDIA ยังเป็นอันดับหนึ่งของโลกใน tokens per watt และ perf per dollar อัตรากำไรขั้นต้นสูงก็ยังมีเหตุผลรองรับ

ทำไม NVIDIA ไม่กลายเป็น hyperscaler เอง?

เมื่อ NVIDIA มีเงินสดจำนวนมาก และได้เข้าร่วมอย่างลึกซึ้งกับโครงสร้างพื้นฐานและชั้นโมเดลของ AI ผ่านการลงทุน CoreWeave, Nebius, Nscale รวมถึง OpenAI, Anthropic ฯลฯ แล้ว ทำไมมันไม่ลงมือเป็นผู้ให้บริการคลาวด์เองไปเลย?

คำตอบของ หวง เหรินซวี่ยังคงกลับไปที่ประโยคเดิมว่า: “ทำสิ่งที่จำเป็นให้มากที่สุด ทำสิ่งที่ไม่จำเป็นให้น้อยที่สุด”

หาก NVIDIA ไม่ทำ CUDA, NVLink, CUDA-X, ไลบรารีด้านต่าง ๆ และแพลตฟอร์มชั้นล่างทั้งหมด สิ่งเหล่านี้อาจไม่มีใครทำเลย ดังนั้น NVIDIA จำเป็นต้องทำเอง แต่ถ้าเป็นบริการคลาวด์ โลกนี้มีผู้ให้บริการอยู่แล้วมากมาย นี่จึงไม่ใช่ขอบเขตของ “หากพวกเราไม่ทำ ก็จะไม่มีใครทำ”

อย่างไรก็ตาม เมื่อผู้ให้บริการคลาวด์สำหรับ AI รูปแบบใหม่ยังอ่อนแอและอาจต้องการความช่วยเหลือเพื่อให้เริ่มทะยานได้ NVIDIA ก็เต็มใจที่จะให้เงิน อุปทาน และการสนับสนุนด้านเทคนิค เพื่อช่วยให้ระบบนิเวศนี้เติบโต นั่นคือ NVIDIA ยินดีที่จะอุ้ม ecosystem แต่ไม่อยากลงมาเป็น financier หรือ hyperscaler ด้วยตัวเอง

ส่วนการลงทุนในบริษัทโมเดลอย่าง OpenAI, Anthropic ฯลฯ หวง เหรินซวี่ยอมรับว่า นี่เป็นผลลัพธ์จาก “การเรียนรู้ในช่วงไม่กี่ปีหลัง” ของ NVIDIA ในอดีต NVIDIA ไม่ได้ตระหนักว่า บริษัทโมเดลพื้นฐานอย่าง OpenAI, Anthropic ในช่วงเริ่มต้นไม่สามารถสร้างขึ้นได้โดยอาศัยเงินทุนแบบ VC แบบดั้งเดิมที่ต้องใช้ความหนาแน่นของทุนเพียงพอ เมื่อเขาเข้าใจจริง ๆ ว่ามันเป็นอย่างนั้น จึงคิดได้ว่า ถ้ามีโอกาส เขาน่าจะลงมือสนับสนุนเร็วกว่านี้

เขายังยอมรับอย่างตรงไปตรงมาว่า “นี่เป็นหนึ่งในความผิดพลาดในการตัดสินใจของตัวเอง”: “ในตอนนั้นยังไม่เข้าใจอย่างลึกซึ้งว่า หากไม่มีการสนับสนุนจากบริษัทเทคขนาดใหญ่หรือเงินทุนระดับใกล้เคียงกัน บริษัทเหล่านี้แทบจะก่อตั้งขึ้นไม่ได้” ปัจจุบันเมื่อ NVIDIA มีขนาดใหญ่ขึ้น เขาก็ชี้แจงว่าเขาจะไม่ทำความผิดพลาดแบบเดิมอีก

ปัญหาจีน ช่วงที่คมที่สุดของการสนทนาทั้งหมด

การรุกรับกันอย่างเข้มข้นที่สุดในการสัมภาษณ์ครั้งนี้ มุ่งเน้นไปที่จีนและข้อจำกัดการส่งออกชิป พิธีกรยึดตำแหน่งว่า การประมวลผลสำหรับ AI เป็นสินค้าที่ใช้ลงทุนโดยตรงในการฝึกและการนำโมเดลความเสี่ยงสูงไปใช้งาน หากจีนได้รับพลังประมวลผลขั้นสูงมากขึ้น ก็อาจสร้างโมเดลที่มีความสามารถด้านการโจมตีทางเครือข่าย การขุดช่องโหว่ ฯลฯ ได้เร็วขึ้น ซึ่งจะก่อให้เกิดความเสี่ยงที่เป็นรูปธรรมต่อความมั่นคงแห่งชาติของสหรัฐฯ และความปลอดภัยขององค์กร

หวง เหรินซวี่ไม่ได้ปฏิเสธว่า AI มีความเสี่ยง และไม่ได้ปฏิเสธว่าควรให้สหรัฐฯ คงความเป็นผู้นำอย่างต่อเนื่อง แต่เขาคัดค้านอย่างหนักแน่นที่จะเทียบชิป AI กับวัสดุทางอาวุธนิวเคลียร์ หรือสรุปแบบสุดโต่งว่า “แค่ขายเพิ่มอีกนิดก็จะเกิดเรื่อง”

ประเด็นหลักของเขามีอยู่หลายข้อ

ประการแรก เขามองว่าจีนไม่ได้อยู่ในสุญญากาศด้านพลังประมวลผล จีนมีแหล่งพลังงานขนาดใหญ่ ความสามารถในการผลิตชิป การสื่อสารและโครงสร้างพื้นฐานเครือข่าย อีกทั้งยังมีนักวิจัยด้าน AI จำนวนมากในสัดส่วนที่สูงมาก ในคำบรรยายของ หวง เหรินซวี่ จีนไม่ได้เป็น “ถ้าไม่ได้ชิป NVIDIA ก็จะพัฒนา AI ไม่ได้” แต่เป็น “ถ้าไม่ได้สิ่งที่ดีที่สุด ก็จะใช้ของตัวเอง และถูกบังคับให้สร้างเทคโนโลยีพื้นถิ่นได้เร็วขึ้น”

ประการที่สอง เขามองว่า ผลข้างเคียงของข้อจำกัดการส่งออก คือทำให้โมเดลโอเพนซอร์ส ระบบนิเวศ และอุตสาหกรรมชิปของจีนเร่งตัดขาดจากสแต็กเทคโนโลยีของสหรัฐฯ มากขึ้น ในมุมของเขา นี่คือความเสี่ยงที่สหรัฐฯ ควรกังวลมากกว่าในระยะยาว เพราะ AI ไม่ได้มีแค่โมเดล ยังรวมถึงชั้นชิป ชั้นเครื่องมือสำหรับพัฒนา ชั้นระบบนิเวศโอเพนซอร์ส และชั้นแอปพลิเคชันทั้งหมด หากสหรัฐฯ เพื่อปกป้องบางชั้น เช่น บริษัทโมเดลล้ำหน้า ก็ยอมแลกการที่จีนเข้าถึงอิทธิพลในตลาดของอุตสาหกรรมชิปและนักพัฒนาในภาพรวม ในระยะยาวอาจทำให้สหรัฐฯ เสียตำแหน่งในการแข่งขันมาตรฐานและแพลตฟอร์มระดับโลกได้

จีนเป็นตลาดเทคโนโลยีที่ใหญ่เป็นอันดับสองของโลก และเป็นหนึ่งในผู้มีส่วนร่วมด้านซอฟต์แวร์โอเพนซอร์สและโมเดลโอเพนซอร์สจำนวนมากที่สุด หากสหรัฐฯ เลือกละทิ้งตลาดนี้ด้วยตัวเอง ก็เท่ากับย้ายกลุ่มนักพัฒนาทั้งกลุ่มไปยังสแต็กเทคโนโลยีอีกชุดหนึ่ง นี่ไม่เพียงแต่กระทบ NVIDIA แต่ยังกระทบอุตสาหกรรมเทคโนโลยีของสหรัฐฯ ทั้งหมดและความมั่นคงแห่งชาติด้วย

ประการที่สาม เขาย้ำซ้ำแล้วซ้ำเล่าว่า โลกไม่ใช่การคาดการณ์แบบสุดโต่งที่เป็นศูนย์หรืออินฟินิตี้ สหรัฐฯ ควรมีพลังประมวลผลมากที่สุด ดีที่สุด และเร็วที่สุด เขาเห็นด้วยเต็มที่ แต่ไม่ได้หมายความว่าสหรัฐฯ ควรละทิ้งตลาดใหญ่อันดับสองของโลกด้วยความสมัครใจ หรือพรรณนา AI ให้เป็นอาวุธเด็ดขาดแบบ “ยูเรเนียมเสริมสมรรถนะ” อย่างใดอย่างหนึ่ง ในมุมของเขา เรื่องเล่าแบบสุดโต่งเกินไปไม่เพียงไม่ช่วยให้การกำหนดนโยบายดีขึ้น แต่ยังอาจขู่ไล่คนเก่ง ทำให้ความเชื่อมั่นของอุตสาหกรรมลดลง และสุดท้ายทำให้สหรัฐฯ สูญเสียความได้เปรียบในการแข่งขันของตัวเอง

เขายังดึงเรื่องนี้กลับไปสู่บริบทนโยบายอุตสาหกรรมภายในประเทศว่า: “หากสหรัฐฯ ใช้ความกลัวจนทำให้ AI ถูกทำให้เป็นอาวุธมากเกินไป ก็จะส่งผลให้คนจำนวนมากปฏิเสธที่จะทุ่มเทให้กับการลงทุนในซอฟต์แวร์ วิศวกรรม และสาขาที่เกี่ยวข้องไปด้วย” ในสายตาของเขา นโยบายที่ขับเคลื่อนด้วยความกลัวแบบนี้คือ “มุมมองของฝ่ายแพ้” ไม่ใช่ท่าทีที่ประเทศผู้ควรนำการปฏิวัติเทคโนโลยีควรมี

สิ่งที่ หวง เหรินซวี่อยากจะสื่อจริง ๆ คือ: “การแข่งขันด้าน AI ไม่ใช่การชนะหรือแพ้กันที่จุดเดียว ต้องดูว่าชั้นเทคโนโลยีทั้งหมดจะสามารถเติบโตไปพร้อมกันได้หรือไม่”

บทความนี้ หวง เหรินซวี่ สัมภาษณ์ล่าสุด (ตอนล่าง): เหตุใด NVIDIA ไม่ทำ Hyperscaler เอง ปรากฏครั้งแรกใน Lianjing News ABMedia

news.article.disclaimer
แสดงความคิดเห็น
0/400
ไม่มีความคิดเห็น