GTC 2026: NVIDIA OpenUSD สำหรับการใช้งานในสถานการณ์ทั่วไป เพื่อสร้างระบบนิเวศ AI สำหรับความบันเทิงและภาพยนตร์

ChainNewsAbmedia

GTC 2026: NVIDIA OpenUSD สร้างระบบนิเวศบันเทิงและภาพยนตร์ด้วย AI

กลุ่มบริษัท Shanghai Film ได้แบ่งปันใน GTC 2026 เกี่ยวกับการใช้ NVIDIA OpenUSD (โครงสร้างคำอธิบายฉากทั่วไป) เพื่อเชื่อมต่อการทำงานข้ามซอฟต์แวร์และเร่งกระบวนการผลิตภาพยนตร์และวิดีโอ ด้วยการนำเนื้อหาที่สร้างด้วยปัญญาประดิษฐ์ (AIGC) เข้าสู่ฐานข้อมูลแอปพลิเคชัน NVIDIA Omniverse ทีมงานด้านภาพยนตร์สามารถใช้ AI ตั้งแต่การพัฒนาบทเบื้องต้น ไปจนถึงการถ่ายทำเสมือนจริงและการตัดต่อขั้นสุดท้าย เพื่อสร้างระบบนิเวศบันเทิงและภาพยนตร์ด้วย AI

คลัสเตอร์ GPU ของ NVIDIA ให้พลังการคำนวณสูง

ในกระบวนการเปลี่ยนผ่านสู่ดิจิทัล อุตสาหกรรมภาพยนตร์และวิดีโอมีความต้องการทรัพยากรการคำนวณมากขึ้น จากเดิมที่เน้นการเรนเดอร์ภาพเป็นหลัก ปัจจุบันต้องรองรับการวิเคราะห์ซับซ้อนของโมเดลภาษาใหญ่ (LLM) และโมเดลการแพร่กระจาย (Diffusion Models) กลุ่มคำนวณ AI ของ Shanghai Film ซึ่งใช้คลัสเตอร์ GPU ของ NVIDIA เป็นแกนหลัก จัดให้มีกลไกการจัดสรรทรัพยากรแบบหลายผู้เช่าอย่างยืดหยุ่น รองรับทีมงานหลายกลุ่มทำงานพร้อมกัน เพื่อให้แน่ใจว่าสินทรัพย์ขนาดใหญ่ เช่น 4K และ 8K จะไม่เกิดความล่าช้า ระบบจึงนำเทคโนโลยี InfiniBand และเครือข่าย Ethernet ความเร็วสูงมาใช้ในการส่งข้อมูลระหว่างหน่วยคำนวณอย่างรวดเร็ว ทำให้ประสิทธิภาพการคำนวณถูกฝังอยู่ในทุกขั้นตอนของการสร้างสรรค์ การส่งมอบ และการดำเนินงานของภาพยนตร์และวิดีโออย่างแม่นยำ

OpenUSD เชื่อมต่อการทำงานข้ามซอฟต์แวร์

ในกระบวนการเปลี่ยนแปลงดิจิทัลของอุตสาหกรรมภาพยนตร์และวิดีโอ OpenUSD (Universal Scene Description) กลายเป็นโครงสร้างหลักที่เชื่อมต่อกระบวนการทำงานต่าง ๆ ระบบนี้เปลี่ยนฉาก สารตัวละคร และอุปกรณ์จากไฟล์เดียวให้กลายเป็น “สินทรัพย์เนื้อหา” ที่สามารถนำกลับมาใช้ใหม่ได้ ช่วยขจัดอุปสรรคด้านความเข้ากันได้ระหว่างซอฟต์แวร์ต่าง ๆ นักออกแบบสามารถทำงานร่วมกันอย่างไร้รอยต่อในเครื่องมืออย่าง Maya, Blender, Unreal Engine และ Houdini โดยไม่ต้องแปลงไฟล์ซ้ำซ้อน ซึ่งอาจทำให้ข้อมูลสูญหาย ด้วยการเก็บข้อมูลในโครงสร้างที่มีการจัดการเวอร์ชันอย่างเป็นระบบ สินทรัพย์ดิจิทัลจึงสามารถเรียกใช้และจัดการได้อย่างแม่นยำ ช่วยลดต้นทุนการสร้างโมเดลซ้ำซ้อนอย่างมาก OpenUSD ผสมผสานกับ NVIDIA Omniverse เพื่อเสนอโซลูชันการจัดการสินทรัพย์ที่สามารถตรวจสอบและโมดูลาร์ได้ ช่วยเพิ่มมูลค่าสินทรัพย์ดิจิทัลสูงสุด

NVIDIA Omniverse สร้างการถ่ายทำเสมือนจริงด้วย AI

NVIDIA Omniverse ทำให้เกิดการถ่ายทำเสมือนจริงแบบ 3D Gaussian โดยใช้เทคโนโลยี 3dgrut แปลงวิดีโอจริงเป็นโมเดล Gaussian 3D ส่งออกเป็นไฟล์ USDZ แล้วนำเข้าโดยตรงสู่ NVIDIA Omniverse เพื่อการเรนเดอร์คุณภาพสูง ช่วยลดต้นทุนการสร้างฉากจริงและสร้างฉากที่สมจริงสูงสุด เมื่อผสมผสานกับเทคโนโลยีถ่ายทำเสมือนจริง นักแสดงสามารถถูกฝังเข้าไปในฉาก 3D อย่างไร้รอยต่อ ทำให้ภาพรวมสมจริงที่สุด จากเทคโนโลยีเหล่านี้ ฉากและอุปกรณ์ต่าง ๆ ในภาพยนตร์สามารถนำกลับมาใช้ใหม่ได้ ช่วยลดต้นทุนอย่างมาก

ความพิเศษของ NVIDIA Omniverse คืออะไร?

ความพิเศษของ NVIDIA Omniverse อยู่ที่การสร้างสภาพแวดล้อม Single Source of Truth (SSOT) ซึ่งช่วยให้แอปพลิเคชันหลายตัวสามารถซิงค์ข้อมูลแบบเรียลไทม์ได้ การปฏิวัตินี้แก้ปัญหาเดิมของกระบวนการสร้างภาพยนตร์และวิดีโอ ที่นักสร้างโมเดล นักอนิเมชัน และนักกำแสงต่างถือสำเนาไฟล์ของตนเอง แล้วต้องนำเข้าและส่งออกไฟล์บ่อย ๆ จนเกิดความสับสนและข้อมูลซ้ำซ้อน โซลูชันนี้ใช้เซิร์ฟเวอร์ Nucleus และโครงสร้าง OpenUSD เป็นแกนกลาง ข้อมูลฉากทั้งหมดถูกเก็บในรูปแบบ OpenUSD บน Nucleus นักพัฒนาสามารถอัปเดตข้อมูลเฉพาะส่วนที่เปลี่ยนแปลงได้โดยไม่ต้องส่งไฟล์เต็มซ้ำ ระบบนี้ช่วยให้ทีมงานทั่วโลกเชื่อมต่อกับ SSOT เดียวกันได้พร้อมกัน ลดการซ้ำซ้อนของไฟล์และรับประกันว่านักสร้างทุกคนจะเห็นฉากเดียวกันในเวอร์ชันล่าสุดและแม่นยำที่สุด กระบวนการสร้างสรรค์จึงเป็นแบบขนานและไม่มีความล่าช้า

AIGC นำเข้าสู่กระบวนการพัฒนาบทและถ่ายทำเสมือนจริง

เนื้อหาที่สร้างด้วยปัญญาประดิษฐ์ (Artificial Intelligence Generated Content หรือ AIGC) ช่วยลดระยะเวลาการพัฒนาจากหลายเดือนเหลือเพียงไม่กี่สัปดาห์ ในช่วงแรกของการพัฒนา AI ถูกใช้วิเคราะห์บท ช่วยสรุปจุดสำคัญ และจัดระเบียบความสัมพันธ์ของตัวละคร พร้อมทั้งสร้างโครงเรื่องและข้อมูลตัวละครอัตโนมัติ เทคโนโลยีสร้างสตอรีบอร์ด (Text-to-Image) แปลงคำบรรยายเป็นภาพอ้างอิง ช่วยให้การสื่อสารมีประสิทธิภาพมากขึ้น เมื่อเข้าสู่ช่วงถ่ายทำ AI ช่วยให้การติดตามแสงและเงาแบบเรียลไทม์บน NVIDIA RTX ทำให้สามารถสร้างฉากหลังเสมือนและกล้องถ่ายภาพแบบเชื่อมโยงกันได้อย่างสมจริง ทีมพัฒนายังใช้ AI อัปเกรดลักษณะของตัวละครให้คงที่ (Consistent Character Creator) เพื่อให้ตัวละครดูเหมือนเดิมในสภาพแสงต่าง ๆ และทำการจำลองการวัดแสงในสภาพแวดล้อมเสมือนจริงล่วงหน้า เพื่อลดเวลาปรับเทคนิคในฉากถ่ายจริง

AI ได้เปลี่ยนแนวคิดพื้นฐานของการสร้างภาพยนตร์และวิดีโอ จากกระบวนการเชิงเส้นแบบเดิม ๆ ไปสู่การทำงานร่วมกันข้ามซอฟต์แวร์ ด้วยการสนับสนุนของ NVIDIA OpenUSD และคลาวด์คำนวณ การตัดต่อ เอฟเฟกต์ และการซักซ้อมสามารถทำควบคู่กับการถ่ายทำจริงได้โดยไม่ต้องรอขั้นตอนหลังการถ่ายทำเสร็จสิ้น

ดูต้นฉบับ
news.article.disclaimer
แสดงความคิดเห็น
0/400
ไม่มีความคิดเห็น