ข้อความเต็มอยู่ที่นี่! Zhang Hongjiang พูดคุยกับ OpenAI Altman: AGI จะเปลี่ยนอารยธรรมโดยพื้นฐาน และจะไม่มี GPT-5 ในเร็วๆ นี้

ที่มา: Wall Street News

ผู้แต่ง: Ge Jiaming

เมื่อวันที่ 10 มิถุนายน Sam Altman ผู้ก่อตั้ง OpenAI ปรากฏตัวในการประชุม Zhiyuan Artificial Intelligence Conference ประจำปี 2023 ที่จัดขึ้นในกรุงปักกิ่ง ประเทศจีน ผ่านทางวิดีโอลิงก์ นี่เป็นครั้งแรกที่ Altman กล่าวสุนทรพจน์ต่อผู้ชมชาวจีน

ในสุนทรพจน์ของเขา Altman อ้างถึง "Tao Te Ching" และพูดคุยเกี่ยวกับความร่วมมือระหว่างประเทศสำคัญ โดยกล่าวว่าความปลอดภัยของ AI เริ่มต้นจากขั้นตอนเดียว และความร่วมมือและการประสานงานระหว่างประเทศจะต้องดำเนินการ

จากนั้น Altman ก็ตอบคำถามแบบตัวต่อตัวกับ Zhang Hongjiang ประธานสถาบันวิจัย Zhiyuan

ปัจจุบัน ดร.จาง หงเจียงเป็นประธานของ Beijing Zhiyuan Artificial Intelligence Research Institute และยังทำหน้าที่เป็นกรรมการอิสระและที่ปรึกษาให้กับหลายบริษัท เขาเป็นกรรมการบริหารและซีอีโอของ Kingsoft Group และซีอีโอของ Kingsoft Cloud เขาเป็นหนึ่งในผู้ก่อตั้ง Microsoft Asia Research Institute คณบดีและ Microsoft "นักวิทยาศาสตร์ดีเด่น"

ก่อนร่วมงานกับ Microsoft จาง หงเจียงเคยเป็นผู้จัดการของ Hewlett-Packard Labs ในซิลิคอนวัลเลย์ สหรัฐอเมริกา ก่อนหน้านั้นเขายังเคยทำงานที่ Institute of Systems Science, National University of Singapore เนื้อหาหลักของสุนทรพจน์ของ Altman:

  1. เหตุผลที่การปฏิวัติ AI ในปัจจุบันมีผลกระทบอย่างมาก ไม่ใช่แค่ขนาดของผลกระทบเท่านั้น แต่ยังรวมถึงความเร็วของความก้าวหน้าด้วย สิ่งนี้นำมาซึ่งทั้งเงินปันผลและความเสี่ยง
  2. ด้วยการกำเนิดของระบบ AI ที่ทรงพลังมากขึ้น ความสำคัญของความร่วมมือระดับโลกจึงไม่เคยมีมากขึ้น ในเหตุการณ์สำคัญบางประเทศต้องร่วมมือและประสานงาน การยกระดับความปลอดภัยของ AGI เป็นหนึ่งในพื้นที่ที่สำคัญที่สุดที่เราต้องหาความสนใจร่วมกัน
  3. การจัดตำแหน่งยังคงเป็นปัญหาที่ไม่ได้รับการแก้ไข GPT-4 ใช้เวลาแปดเดือนในการจัดตำแหน่ง อย่างไรก็ตาม การวิจัยที่เกี่ยวข้องยังคงได้รับการอัปเกรด โดยส่วนใหญ่แบ่งออกเป็น 2 ด้าน ได้แก่ ความสามารถในการปรับขนาดและการตีความ

เนื้อหาสำคัญของช่วงถามตอบ:

  1. มนุษย์จะมีระบบปัญญาประดิษฐ์ (AI) อันทรงพลังภายใน 10 ปี
  2. OpenAI ไม่มีตารางเวลาใหม่ที่เกี่ยวข้องสำหรับโอเพนซอร์ส โมเดลโอเพนซอร์สมีข้อดี แต่โอเพนซอร์สอาจไม่ใช่เส้นทางที่ดีที่สุด (เพื่อส่งเสริมการพัฒนา AI)
  3. เข้าใจโครงข่ายประสาทเทียมได้ง่ายกว่าสมองมนุษย์มาก
  4. ในบางจุดจะลองทำโมเดล GPT-5 แต่ยังไม่ใช่เร็วๆ นี้ ฉันไม่รู้ว่า GPT-5 เฉพาะจะปรากฏขึ้นเมื่อใด
  5. ความปลอดภัยของ AI ต้องการการมีส่วนร่วมและการสนับสนุนจากนักวิจัยชาวจีน

หมายเหตุ: "การจัดตำแหน่ง AI" เป็นเรื่องสำคัญที่สุดในประเด็นการควบคุม AI กล่าวคือ เป้าหมายของระบบ AI จะต้องสอดคล้อง (สอดคล้อง) กับคุณค่าและผลประโยชน์ของมนุษย์

เนื้อหาคำพูดของ Sam Altman:

ด้วยการกำเนิดของระบบปัญญาประดิษฐ์ที่ทรงพลังมากขึ้น เดิมพันสำหรับความร่วมมือระดับโลกไม่เคยสูง

หากเราไม่ระวัง ระบบ AI ที่วางผิดตำแหน่งซึ่งออกแบบมาเพื่อปรับปรุงผลลัพธ์ด้านสาธารณสุขอาจทำให้ระบบการดูแลสุขภาพทั้งหมดหยุดชะงักได้ด้วยการให้คำแนะนำที่ไม่มีมูลความจริง ในทำนองเดียวกัน ระบบ AI ที่ออกแบบมาเพื่อเพิ่มประสิทธิภาพการผลิตทางการเกษตรอาจทำให้ทรัพยากรธรรมชาติหมดไปหรือทำลายระบบนิเวศโดยไม่ได้ตั้งใจ เนื่องจากขาดการคำนึงถึงความยั่งยืนในระยะยาวซึ่งส่งผลต่อการผลิตอาหาร ความสมดุลของสิ่งแวดล้อม

ฉันหวังว่าเราทุกคนจะเห็นพ้องต้องกันว่าการยกระดับความปลอดภัยของ AGI เป็นหนึ่งในพื้นที่ที่สำคัญที่สุดที่เราต้องทำงานร่วมกันและค้นหาสิ่งที่เหมือนกัน

งานนำเสนอที่เหลือของฉันจะมุ่งเน้นไปที่จุดที่เราจะเริ่มต้นได้: 1. ส่วนแรกคือการกำกับดูแลของ AGI โดยพื้นฐานแล้ว AGI ได้กลายเป็นพลังที่ทรงพลังสำหรับการเปลี่ยนแปลงในอารยธรรมของเรา โดยเน้นย้ำถึงความร่วมมือระหว่างประเทศที่มีความหมายและการประสานงานที่จำเป็น ทุกคนได้รับประโยชน์จากแนวทางการกำกับดูแลแบบร่วมมือ หากเราเดินไปตามเส้นทางนี้อย่างปลอดภัยและมีความรับผิดชอบ ระบบ AgI จะสามารถสร้างความมั่งคั่งทางเศรษฐกิจที่เหนือชั้นให้กับเศรษฐกิจโลก จัดการกับความท้าทายทั่วไป เช่น การเปลี่ยนแปลงสภาพภูมิอากาศและความมั่นคงด้านสุขภาพของโลก และยกระดับความเป็นอยู่ที่ดีของสังคม

ฉันยังเชื่ออย่างสุดซึ้งในอนาคต เราจำเป็นต้องลงทุนในความปลอดภัยของ AGI เพื่อให้ได้ตำแหน่งที่เราต้องการและสนุกกับมัน

ในการทำเช่นนี้ เราต้องมีการประสานงานอย่างระมัดระวัง นี่คือเทคโนโลยีระดับโลกที่เข้าถึงได้ทั่วโลก ค่าใช้จ่ายของอุบัติเหตุที่เกิดจากการพัฒนาและใช้งานโดยประมาทจะส่งผลกระทบต่อเราทุกคน

ในความร่วมมือระหว่างประเทศ ฉันคิดว่ามีสองประเด็นหลักที่สำคัญที่สุด

ก่อนอื่น เราจำเป็นต้องสร้างบรรทัดฐานและมาตรฐานระหว่างประเทศ และให้ความสำคัญกับความเท่าเทียมกันในกระบวนการ การใช้ระบบ AGI ในประเทศใด ๆ ควรปฏิบัติตามมาตรฐานสากลและบรรทัดฐานดังกล่าวอย่างเท่าเทียมกันและสม่ำเสมอ ภายในรั้วความปลอดภัยเหล่านี้ เราเชื่อว่าผู้คนมีโอกาสมากมายที่จะตัดสินใจเลือกด้วยตนเอง

ประการที่สอง เราต้องการความร่วมมือระหว่างประเทศอย่างแท้จริงเพื่อสร้างความไว้วางใจระหว่างประเทศในการพัฒนาระบบ AI ที่มีประสิทธิภาพมากขึ้นอย่างปลอดภัย ฉันไม่มีความเข้าใจผิดว่านี่เป็นงานง่ายๆ ที่ต้องใช้ความเอาใจใส่อย่างทุ่มเทและต่อเนื่อง **

เต๋าเต๋อจิงบอกเราว่า การเดินทางนับพันไมล์เริ่มต้นด้วยก้าวเดียว เราเชื่อว่าขั้นตอนแรกที่สร้างสรรค์ที่สุดในเรื่องนี้คือการร่วมมือกับชุมชนวิทยาศาสตร์และเทคโนโลยีระหว่างประเทศ

สิ่งที่ต้องเน้นคือเราควรเพิ่มกลไกความโปร่งใสและการแบ่งปันความรู้ในการส่งเสริมความก้าวหน้าทางเทคโนโลยี เมื่อพูดถึงความปลอดภัยของ AGI นักวิจัยที่ค้นพบปัญหาด้านความปลอดภัยที่เกิดขึ้นใหม่ควรแบ่งปันข้อมูลเชิงลึกเพื่อสิ่งที่ดีกว่า

เราต้องคิดให้หนักว่าเราจะเคารพและปกป้องทรัพย์สินทางปัญญาในขณะที่ส่งเสริมบรรทัดฐานนี้ได้อย่างไร หากเราทำเช่นนี้ มันจะเปิดประตูใหม่ให้เราได้กระชับความร่วมมือให้แน่นแฟ้นยิ่งขึ้น

ในวงกว้าง เราควร ลงทุนในการส่งเสริมและชี้แนะการวิจัย เกี่ยวกับการจัดตำแหน่ง AI และความปลอดภัย

ที่ Open AI การวิจัยของเราในวันนี้มุ่งเน้นไปที่ประเด็นทางเทคนิคที่ช่วยให้ AI มีบทบาทที่เป็นประโยชน์และปลอดภัยยิ่งขึ้นในระบบปัจจุบันของเรา นี่อาจหมายความว่าเราฝึก ChatGPT ในลักษณะที่ไม่คุกคามความรุนแรงหรือช่วยเหลือผู้ใช้ในกิจกรรมที่เป็นอันตราย

แต่เมื่อเราเข้าใกล้อายุของ AGI มากขึ้น ผลกระทบที่อาจเกิดขึ้นและขนาดของผลกระทบของระบบ AI ที่ไม่สอดคล้องกันจะเพิ่มขึ้นอย่างทวีคูณ การจัดการกับความท้าทายเหล่านี้ในเชิงรุกช่วยลดความเสี่ยงของผลลัพธ์ที่เป็นหายนะในอนาคต

สำหรับระบบปัจจุบัน เราใช้การเรียนรู้แบบเสริมกำลังร่วมกับความคิดเห็นจากมนุษย์เป็นหลักเพื่อฝึกโมเดลของเราให้เป็นผู้ช่วยด้านความปลอดภัยที่เป็นประโยชน์ นี่เป็นเพียงตัวอย่างหนึ่งของเทคนิคการปรับตัวหลังการฝึกแบบต่างๆ และเรากำลังทำงานอย่างหนักกับเทคโนโลยีใหม่ๆ ซึ่งต้องใช้งานด้านวิศวกรรมอย่างหนัก

นับตั้งแต่เวลาที่ GPT4 เสร็จสิ้นการฝึกอบรมล่วงหน้าจนกระทั่งเรานำไปใช้จริง เราทุ่มเทเวลา 8 เดือนให้กับงานจัดตำแหน่ง โดยรวมแล้ว เราคิดว่าเราทำได้ดีที่นี่ GPT4 มีความสอดคล้องกับมนุษย์มากกว่ารุ่นก่อนๆ ของเรา

อย่างไรก็ตาม การจัดตำแหน่งยังคงเป็นปัญหาที่เปิดกว้างสำหรับระบบขั้นสูง ซึ่งเราโต้แย้งว่าจำเป็นต้องมีแนวทางทางเทคนิคใหม่ๆ พร้อมการกำกับดูแลและการกำกับดูแลที่ได้รับการปรับปรุง

สำหรับระบบ AGI ในอนาคต จะเสนอรหัสไบนารี 100,000 บรรทัด ผู้บังคับบัญชาที่เป็นมนุษย์ไม่น่าจะรู้ได้ว่าแบบจำลองดังกล่าวกำลังทำสิ่งที่ชั่วร้ายอยู่หรือไม่ ดังนั้นเราจึงลงทุนในทิศทางการวิจัยใหม่ ๆ ที่เสริมกันซึ่งเราหวังว่าจะนำไปสู่การค้นพบใหม่ ๆ

** **หนึ่งคือการดูแลที่ปรับขนาดได้ เราสามารถลองใช้ระบบ AI เพื่อช่วยมนุษย์ในการดูแลระบบ AI อื่นๆ ตัวอย่างเช่น เราสามารถฝึกแบบจำลองเพื่อช่วยให้การควบคุมโดยมนุษย์พบข้อบกพร่องในผลลัพธ์ของแบบจำลองอื่นๆ ** ประการที่สองคือความสามารถในการตีความ เราต้องการพยายามทำความเข้าใจสิ่งที่เกิดขึ้นภายในโมเดลเหล่านี้ให้ดียิ่งขึ้น เราเพิ่งตีพิมพ์บทความโดยใช้ GPT-4 เพื่อตีความเซลล์ประสาทใน GPT-2 **ในเอกสารฉบับอื่น เราใช้ Model Internals เพื่อตรวจจับเมื่อนางแบบโกหก **หนทางยังอีกยาวไกล เราเชื่อว่าเทคนิคแมชชีนเลิร์นนิงขั้นสูงสามารถปรับปรุงความสามารถในการอธิบายของเราให้ดียิ่งขึ้น

ในที่สุด เป้าหมายของเราคือการฝึกอบรมระบบ AI เพื่อช่วยในการศึกษาการจัดตำแหน่ง **ข้อดีของวิธีนี้คือสามารถปรับขนาดได้ด้วยความเร็วของการพัฒนา AI

การเก็บเกี่ยวผลประโยชน์พิเศษของ AGI ในขณะที่ลดความเสี่ยงเป็นหนึ่งในความท้าทายที่สำคัญที่สุดในยุคของเรา เรามองเห็นศักยภาพที่ยอดเยี่ยมสำหรับนักวิจัยในจีน สหรัฐอเมริกา และทั่วโลกในการทำงานร่วมกันเพื่อไปสู่เป้าหมายเดียวกันและทำงานอย่างหนักเพื่อแก้ปัญหาความท้าทายทางเทคนิคที่เกิดจากการจัดตำแหน่ง AGI

หากเราทำเช่นนี้ ผมเชื่อว่าเราจะสามารถใช้ AGI เพื่อแก้ปัญหาที่สำคัญที่สุดของโลกและปรับปรุงคุณภาพชีวิตของมนุษย์ได้อย่างมาก ขอบคุณมาก.

ต่อไปนี้เป็นบันทึกการสนทนา:

ในอีกสิบปีข้างหน้า เราจะมีระบบ AI ที่ทรงพลังมาก

Zhang Hongjiang ประธานสถาบันวิจัย Zhiyuan ถามว่า **เราห่างไกลจากปัญญาประดิษฐ์ทั่วไป (AGI) แค่ไหน? ความเสี่ยงเป็นเรื่องเร่งด่วนหรือเราอยู่ไกลจากมัน? **

แซม อัลท์แมน: มันยากที่จะประเมินว่าเมื่อไหร่ **มีแนวโน้มสูงที่เราจะมีระบบ AI ที่ทรงพลังมากในอีกสิบปีข้างหน้า และเทคโนโลยีใหม่ ๆ จะเปลี่ยนโลกโดยพื้นฐานเร็วกว่าที่เราคิด **ในโลกนั้น ฉันคิดว่าเป็นเรื่องสำคัญและเร่งด่วนที่จะต้องทำให้สิ่งนี้ถูกต้อง (กฎความปลอดภัยของ AI) ซึ่งเป็นเหตุผลที่ฉันเรียกร้องให้ประชาคมระหว่างประเทศทำงานร่วมกัน

ในแง่หนึ่ง ความเร่งและผลกระทบเชิงระบบของเทคโนโลยีใหม่ที่เราเห็นในขณะนี้นั้นไม่เคยเกิดขึ้นมาก่อน ดังนั้นฉันคิดว่ามันเกี่ยวกับการเตรียมพร้อมสำหรับสิ่งที่กำลังจะมาถึงและตระหนักถึงปัญหาด้านความปลอดภัย ด้วยขนาดที่แท้จริงของ AI เดิมพันจึงมีความสำคัญ

ในความเห็นของคุณ ในด้านการรักษาความปลอดภัย AGI อะไรคือข้อดีของประเทศต่างๆ ในการแก้ปัญหานี้ โดยเฉพาะอย่างยิ่งในการแก้ปัญหาด้านความปลอดภัยของ AI จะรวมจุดแข็งเหล่านี้ได้อย่างไร?

ความร่วมมือระดับโลกเพื่อเสนอมาตรฐานและกรอบความปลอดภัยสำหรับ AI

Zhang Hongjiang: คุณพูดถึงหลายครั้งในบทนำก่อนหน้านี้ว่าความร่วมมือระดับโลกกำลังดำเนินการอยู่ เราทราบดีว่าที่ผ่านมาโลกได้เผชิญกับวิกฤตการณ์ครั้งใหญ่ อย่างไรก็ตาม สำหรับหลายๆ คน เราสามารถสร้างฉันทามติ สร้างความร่วมมือระดับโลก คุณกำลังทัวร์คอนเสิร์ตทั่วโลก คุณกำลังพยายามส่งเสริมความร่วมมือระดับโลกประเภทใด?

Sam Altman: ใช่ ฉันพอใจมากกับปฏิกิริยาและคำตอบของทุกคนจนถึงตอนนี้ ฉันคิดว่าผู้คนกำลังรับความเสี่ยงและโอกาสของ AGI อย่างจริงจัง

ฉันคิดว่าการหารือด้านความมั่นคงมาไกลในช่วง 6 เดือนที่ผ่านมา ดูเหมือนจะมีความมุ่งมั่นอย่างแท้จริงในการหาโครงสร้างที่ช่วยให้เราได้รับประโยชน์เหล่านี้ในขณะที่ทำงานร่วมกันทั่วโลกเพื่อลดความเสี่ยง ฉันคิดว่าเราเหมาะมากที่จะทำสิ่งนี้ ความร่วมมือระดับโลกเป็นเรื่องยากเสมอ แต่ฉันเห็นว่าเป็นโอกาสและภัยคุกคามที่จะรวมโลกเข้าด้วยกัน จะเป็นประโยชน์มากหากเราสามารถกำหนดกรอบและมาตรฐานความปลอดภัยสำหรับระบบเหล่านี้ได้

วิธีแก้ปัญหาการจัดตำแหน่งของปัญญาประดิษฐ์

Zhang Hongjiang: คุณกล่าวว่าการจัดตำแหน่งของปัญญาประดิษฐ์ขั้นสูงเป็นปัญหาที่ยังไม่ได้แก้ไข ฉันยังสังเกตเห็นว่า OpenAI ใช้ความพยายามอย่างมากในช่วงไม่กี่ปีที่ผ่านมา คุณกล่าวว่า GPT-4 เป็นตัวอย่างที่ดีที่สุดในด้านการจัดตำแหน่ง คุณคิดว่าเราสามารถแก้ปัญหาด้านความปลอดภัยของ AGI เพียงแค่การปรับแต่งอย่างละเอียด (API) ได้หรือไม่? หรือมันยากกว่าวิธีแก้ปัญหานี้มาก?

Sam Altman: ฉันคิดว่ามีหลายวิธีในการทำความเข้าใจคำว่าการจัดตำแหน่ง ฉันคิดว่าสิ่งที่เราต้องแก้ไขคือความท้าทายในระบบปัญญาประดิษฐ์ทั้งหมด การจัดตำแหน่งในความรู้สึกแบบดั้งเดิม - ทำให้พฤติกรรมของแบบจำลองตรงกับความตั้งใจของผู้ใช้เป็นส่วนหนึ่งของมันอย่างแน่นอน

แต่ก็จะมีปัญหาอื่นๆ เช่น เราจะตรวจสอบได้อย่างไรว่าระบบกำลังทำอะไร เราต้องการให้มันทำอะไร และเราจะปรับค่าของระบบได้อย่างไร สิ่งสำคัญที่สุดคือการมองเห็นภาพรวมของความปลอดภัยของ AGI

อย่างอื่นจะยากหากไม่มีวิธีแก้ปัญหาทางเทคนิค ฉันคิดว่ามันสำคัญมากที่จะมุ่งเน้นไปที่การทำให้แน่ใจว่าเราจัดการด้านเทคนิคของการรักษาความปลอดภัย ดังที่ฉันได้กล่าวไปแล้ว การค้นหาว่าค่านิยมของเราคืออะไรนั้นไม่ใช่คำถามทางเทคนิค แม้ว่าจะต้องใช้ข้อมูลทางเทคนิค แต่ก็เป็นประเด็นที่ควรค่าแก่การอภิปรายในเชิงลึกโดยทั้งสังคม เราต้องออกแบบระบบที่ยุติธรรม เป็นตัวแทน และครอบคลุม

Zhang Hongjiang: สำหรับการจัดตำแหน่ง สิ่งที่เราเห็น GPT-4 ยังคงเป็นทางออกจากมุมมองทางเทคนิค แต่มีปัจจัยอื่น ๆ อีกมากมายนอกเหนือจากเทคโนโลยี ซึ่งมักจะเป็นระบบ ความปลอดภัยของ AI อาจไม่มีข้อยกเว้นที่นี่ นอกจากด้านเทคนิคแล้ว ยังมีปัจจัยและปัญหาอื่นๆ อะไรบ้าง? คุณคิดว่ามันสำคัญต่อความปลอดภัยของ AI หรือไม่? เราควรตอบสนองต่อความท้าทายเหล่านี้อย่างไร? โดยเฉพาะอย่างยิ่งเนื่องจากพวกเราส่วนใหญ่เป็นนักวิทยาศาสตร์ เราควรทำอย่างไร.

Sam Altman: นี่เป็นคำถามที่ซับซ้อนมาก แต่ทุกอย่างจะยากหากไม่มีวิธีแก้ปัญหาทางเทคนิค ฉันคิดว่ามันสำคัญมากสำหรับรัฐบาลที่จะมุ่งเน้นไปที่การทำให้แน่ใจว่าเราจัดการด้านเทคนิคของการรักษาความปลอดภัย **ดังที่ฉันได้กล่าวไปแล้ว การค้นหาว่าค่านิยมของเราคืออะไรนั้นไม่ใช่คำถามทางเทคนิค จำเป็นต้องมีข้อมูลทางเทคนิค แต่ก็เป็นประเด็นที่ควรค่าแก่การอภิปรายในเชิงลึกโดยทั้งสังคม **เราต้องออกแบบระบบที่ยุติธรรม เป็นตัวแทน และครอบคลุม **

และอย่างที่คุณบอก เราต้องคิดถึงความปลอดภัยของไม่ใช่แค่โมเดล AI ที่ดึงตัวเอง แต่รวมถึงระบบโดยรวมด้วย

ดังนั้นจึงเป็นสิ่งสำคัญที่จะต้องสามารถสร้างตัวแยกประเภทที่ปลอดภัยและตัวตรวจจับที่ทำงานบนระบบที่ตรวจสอบ AI เพื่อให้สอดคล้องกับนโยบายการใช้งาน ฉันคิดว่ามันยากที่จะคาดเดาล่วงหน้าถึงปัญหาทั้งหมดที่จะเกิดขึ้นกับเทคโนโลยีใด ๆ ดังนั้นเรียนรู้จากการใช้งานจริงและปรับใช้ซ้ำๆ เพื่อดูว่าเกิดอะไรขึ้นเมื่อคุณสร้างความเป็นจริงและปรับปรุงมัน

สิ่งสำคัญคือต้องให้เวลามนุษย์และสังคมได้เรียนรู้และปรับปรุง และคิดว่าแบบจำลองเหล่านี้จะโต้ตอบกับชีวิตของพวกเขาอย่างไรทั้งในด้านดีและไม่ดี

ต้องอาศัยความร่วมมือของทุกประเทศ

Zhang Hongjiang: ก่อนหน้านี้ คุณพูดถึงความร่วมมือระดับโลก คุณได้เดินทางไปทั่วโลก จีน สหรัฐอเมริกา และยุโรปเป็นแรงผลักดันที่อยู่เบื้องหลังนวัตกรรมของปัญญาประดิษฐ์ ในความเห็นของคุณ ใน AGI อะไรคือข้อดีของประเทศต่างๆ ในการแก้ปัญหา AGI โดยเฉพาะอย่างยิ่งในการแก้ปัญหา ปัญหาเรื่องความปลอดภัยของมนุษย์ คำถาม จะรวมจุดแข็งเหล่านี้ได้อย่างไร?

Sam Altman: ฉันคิดว่าโดยทั่วไปแล้วจำเป็นต้องมีมุมมองที่แตกต่างกันมากมายและความปลอดภัยของ AI เรายังไม่มีคำตอบทั้งหมด และนี่เป็นคำถามที่ค่อนข้างยากและสำคัญ

นอกจากนี้ ดังที่ได้กล่าวไปแล้ว การทำให้ AI ปลอดภัยและเป็นประโยชน์นั้นไม่ใช่คำถามทางเทคนิคเพียงอย่างเดียว เกี่ยวข้องกับการทำความเข้าใจความชอบของผู้ใช้ในประเทศต่างๆ ในบริบทที่แตกต่างกันมาก เราต้องการปัจจัยการผลิตที่แตกต่างกันมากมายเพื่อให้สิ่งนี้เกิดขึ้น จีนมีความสามารถ AI ที่ดีที่สุดในโลก โดยพื้นฐานแล้ว ฉันคิดว่าความคิดที่ดีที่สุดจากทั่วโลกเป็นสิ่งจำเป็นเพื่อจัดการกับความยากลำบากในการปรับระบบ AI ขั้นสูงให้สอดคล้องกัน ดังนั้นฉันหวังเป็นอย่างยิ่งว่านักวิจัยด้าน AI ของจีนจะสามารถสร้างผลงานที่ยอดเยี่ยมได้ที่นี่

ต้องใช้สถาปัตยกรรมที่แตกต่างกันมากเพื่อให้ AGI ปลอดภัยยิ่งขึ้น

Zhang Hongjiang: คำถามติดตามผลเกี่ยวกับ GPT-4 และความปลอดภัยของ AI เป็นไปได้หรือไม่ที่เราจำเป็นต้องเปลี่ยนโครงสร้างพื้นฐานทั้งหมดหรือสถาปัตยกรรมทั้งหมดของแบบจำลอง AGI เพื่อให้ปลอดภัยและง่ายต่อการตรวจสอบ

Sam Altman: เป็นไปได้ทั้งหมดที่เราต้องการสถาปัตยกรรมที่แตกต่างกันมาก ทั้งจากมุมมองการทำงานและจากมุมมองด้านความปลอดภัย

ฉันคิดว่าเราจะสามารถก้าวหน้าได้บ้าง เป็นความก้าวหน้าที่ดีในการอธิบายความสามารถของโมเดลต่างๆ ของเราในขณะนี้ และทำให้พวกเขาอธิบายให้เราฟังได้ดีขึ้นว่ากำลังทำอะไรและทำไม แต่ใช่ ฉันจะไม่แปลกใจเลยหากจะมีการก้าวกระโดดครั้งใหญ่อีกครั้งหลังจาก Transformer เราได้เปลี่ยนแปลงสถาปัตยกรรมมากมายตั้งแต่ Transformer ดั้งเดิม

ความเป็นไปได้ของ OpenAI โอเพ่นซอร์ส

Zhang Hongjiang: ฉันเข้าใจว่าฟอรัมวันนี้เกี่ยวกับความปลอดภัยของ AI เพราะผู้คนอยากรู้เกี่ยวกับ OpenAI มาก ฉันจึงมีคำถามมากมายเกี่ยวกับ OpenAI ไม่ใช่แค่เรื่องความปลอดภัยของ AI ฉันมีคำถามจากผู้ชมที่นี่ มีแผนใดที่ OpenAI จะนำโมเดลของโอเพ่นซอร์สกลับมาใช้ใหม่เหมือนก่อนเวอร์ชัน 3.0 ฉันยังคิดว่าโอเพ่นซอร์สนั้นดีสำหรับความปลอดภัยของ AI

แซม อัลท์แมน: โมเดลของเราบางโมเดลเป็นโอเพนซอร์สและบางโมเดลไม่ใช่ แต่เมื่อเวลาผ่านไป ผมคิดว่าคุณควรคาดหวังให้เราดำเนินการต่อโมเดลโอเพนซอร์สเพิ่มเติมในอนาคต ฉันไม่มีรุ่นหรือไทม์ไลน์ที่เจาะจง แต่เป็นสิ่งที่เรากำลังคุยกันอยู่ตอนนี้

จาง หงเจียง: BAAI ทำทุกอย่างด้วยโอเพ่นซอร์ส รวมถึงโมเดลและอัลกอริทึมเอง เราเชื่อว่าเรามีความต้องการนี้ การแบ่งปันและการให้ที่คุณมองว่าเป็นสิ่งที่พวกเขาควบคุมได้ คุณมีความคิดที่คล้ายคลึงกัน หรือมีการพูดคุยหัวข้อเหล่านี้ในหมู่เพื่อนหรือเพื่อนร่วมงานของคุณที่ OpenAI หรือไม่

Sam Altman: ใช่ ** ฉันคิดว่าโอเพ่นซอร์สมีบทบาทสำคัญในทางหนึ่ง **

นอกจากนี้ยังมีรูปแบบโอเพ่นซอร์สใหม่ ๆ เกิดขึ้นมากมายเมื่อเร็ว ๆ นี้ ฉันคิดว่าโมเดล API ก็มีบทบาทสำคัญเช่นกัน มันให้การควบคุมความปลอดภัยเพิ่มเติมแก่เรา คุณสามารถบล็อกการใช้งานบางอย่างได้ คุณสามารถบล็อกการปรับแต่งบางประเภทได้ หากบางอย่างใช้ไม่ได้ คุณสามารถนำกลับมาได้ ด้วยขนาดของรุ่นปัจจุบัน ฉันไม่กังวลเกี่ยวกับเรื่องนี้มากนัก แต่เมื่อโมเดลมีประสิทธิภาพอย่างที่เราคาดไว้ ถ้าเราคิดถูก ฉันคิดว่าโอเพนซอร์สทุกอย่างอาจไม่ใช่เส้นทางที่ดีที่สุด แม้ว่าบางครั้งมันจะถูกต้องก็ตาม **ฉันคิดว่าเราแค่ต้องจัดสมดุลอย่างระมัดระวัง **

เราจะมีโมเดลขนาดใหญ่แบบโอเพ่นซอร์สเพิ่มเติมในอนาคต แต่ไม่มีรุ่นและตารางเวลาที่เฉพาะเจาะจง

ขั้นตอนต่อไปสำหรับ AGI? เราจะเห็น GPT-5 เร็ว ๆ นี้หรือไม่?

Zhang Hongjiang: ในฐานะนักวิจัย ฉันก็สงสัยเช่นกันว่าทิศทางต่อไปของการวิจัย AGI คืออะไร ในส่วนของโมเดลขนาดใหญ่ โมเดลภาษาขนาดใหญ่ เราจะได้เห็น GPT-5 เร็วๆ นี้หรือไม่? เป็นพรมแดนถัดไปในรูปแบบที่เป็นตัวเป็นตนหรือไม่? หุ่นยนต์อัตโนมัติเป็นพื้นที่ที่ OpenAI เป็นหรือวางแผนที่จะสำรวจหรือไม่?

แซม อัลท์แมน: ฉันยังสงสัยเกี่ยวกับสิ่งที่จะเกิดขึ้นต่อไป และสิ่งหนึ่งที่ฉันชอบเกี่ยวกับการทำงานนี้คือ มีความตื่นเต้นและความประหลาดใจมากมายในการค้นคว้าที่ทันสมัย เรายังไม่มีคำตอบ ดังนั้นเรากำลังสำรวจกระบวนทัศน์ใหม่ที่เป็นไปได้มากมาย แน่นอน ในบางจุด เราจะพยายามสร้างโมเดล GPT-5 แต่ไม่ใช่ในเร็วๆ นี้ เราไม่รู้ว่าเมื่อไรกันแน่ เราได้ทำงานเกี่ยวกับวิทยาการหุ่นยนต์ตั้งแต่จุดเริ่มต้นของ OpenAI และเราสนใจมันมาก แต่เราก็มีปัญหาบางประการ ฉันหวังว่าวันหนึ่งเราจะกลับไปที่สนามนี้ได้

Zhang Hongjiang: ฟังดูดีมาก คุณยังได้กล่าวถึงวิธีการใช้ GPT-4 ในงานนำเสนอของคุณเพื่ออธิบายวิธีการทำงานของ GPT-2 ทำให้โมเดลมีความปลอดภัยมากขึ้น วิธีการนี้สามารถปรับขนาดได้หรือไม่? ทิศทางนี้ OpenAI จะก้าวหน้าต่อไปในอนาคตหรือไม่?

แซม อัลท์แมน: เราจะผลักดันไปในทิศทางนี้ต่อไป

Zhang Hongjiang: คุณคิดว่าวิธีนี้ใช้กับเซลล์ประสาททางชีวภาพได้ไหม? เพราะเหตุผลที่ผมถามคำถามนี้คือ มีนักชีววิทยาและนักประสาทวิทยาบางคนต้องการยืมวิธีนี้ไปศึกษาและสำรวจว่าเซลล์ประสาทของมนุษย์ทำงานอย่างไรในสาขาของตน

แซม อัลท์แมน: ง่ายกว่ามากในการดูว่าเกิดอะไรขึ้นกับเซลล์ประสาทเทียมมากกว่าเซลล์ประสาททางชีวภาพ **ดังนั้น ฉันคิดว่าวิธีนี้ใช้ได้กับโครงข่ายประสาทเทียม **ฉันคิดว่ามีวิธีใช้โมเดลที่มีประสิทธิภาพมากขึ้นเพื่อช่วยให้เราเข้าใจโมเดลอื่นๆ แต่ฉันไม่ค่อยแน่ใจว่าคุณจะใช้วิธีนี้กับสมองของมนุษย์ได้อย่างไร

เป็นไปได้ไหมที่จะควบคุมจำนวนรุ่น

Zhang Hongjiang: โอเค ขอบคุณ ตอนนี้เราได้พูดคุยเกี่ยวกับความปลอดภัยของ AI และการควบคุม AGI แล้ว หนึ่งในคำถามที่เรากำลังพูดคุยกันคือ จะปลอดภัยกว่าไหมถ้ามีเพียงสามรุ่นในโลก มันเหมือนกับการควบคุมนิวเคลียร์ คุณไม่ต้องการให้อาวุธนิวเคลียร์เพิ่มจำนวนขึ้น เรามีสนธิสัญญานี้ซึ่งเราพยายามควบคุมจำนวนประเทศที่สามารถรับเทคโนโลยีนี้ได้ การควบคุมจำนวนรุ่นเป็นทิศทางที่เป็นไปได้หรือไม่?

แซม อัลท์แมน: ฉันคิดว่ามีความคิดเห็นที่แตกต่างกันว่าการมีแบบอย่างชนกลุ่มน้อยหรือแบบส่วนใหญ่ในโลกนั้นปลอดภัยกว่ากัน ฉันคิดว่ามันสำคัญกว่า เรามีระบบที่โมเดลที่แข็งแกร่งได้รับการทดสอบความปลอดภัยอย่างเพียงพอหรือไม่ เรามีกรอบงานที่ใครก็ตามที่สร้างแบบจำลองที่มีประสิทธิภาพเพียงพอมีทั้งทรัพยากรและความรับผิดชอบเพื่อให้แน่ใจว่าสิ่งที่พวกเขาสร้างขึ้นนั้นปลอดภัยและสอดคล้องกันหรือไม่?

Zhang Hongjiang: ในการประชุมเมื่อวานนี้ ศาสตราจารย์ Max จาก MIT Future of Life Institute ได้กล่าวถึงวิธีการที่เป็นไปได้ ซึ่งคล้ายกับวิธีที่เราควบคุมการพัฒนายา เมื่อนักวิทยาศาสตร์หรือบริษัทต่างๆ พัฒนายาใหม่ คุณไม่สามารถทำการตลาดโดยตรงได้ คุณต้องผ่านขั้นตอนการทดสอบนี้ นี่คือสิ่งที่เราสามารถเรียนรู้ได้จาก?

Sam Altman: ผมคิดว่าเราสามารถเรียนรู้ได้มากมายจากกรอบการออกใบอนุญาตและการทดสอบที่ได้รับการพัฒนาในอุตสาหกรรมต่างๆ แต่ฉันคิดว่าโดยพื้นฐานแล้วเรามีบางอย่างที่สามารถทำงานได้

Zhang Hongjiang: ขอบคุณมากแซม ขอขอบคุณที่สละเวลาเข้าร่วมการประชุมนี้แม้ว่าจะออนไลน์ก็ตาม ฉันแน่ใจว่ามีคำถามอีกมากมาย แต่เมื่อถึงเวลา เราต้องหยุดไว้แค่นี้ ฉันหวังว่าครั้งต่อไปที่คุณมีโอกาสมาที่ประเทศจีน มาที่ปักกิ่ง เราจะได้สนทนากันในเชิงลึกมากขึ้น ขอบคุณมาก.

ดูต้นฉบับ
เนื้อหานี้มีสำหรับการอ้างอิงเท่านั้น ไม่ใช่การชักชวนหรือข้อเสนอ ไม่มีคำแนะนำด้านการลงทุน ภาษี หรือกฎหมาย ดูข้อจำกัดความรับผิดชอบสำหรับการเปิดเผยความเสี่ยงเพิ่มเติม
  • รางวัล
  • แสดงความคิดเห็น
  • แชร์
แสดงความคิดเห็น
0/400
ไม่มีความคิดเห็น
  • ปักหมุด