โมเดลสามารถใช้บริบทได้มากเพียงใดและโมเดลใช้บริบทได้อย่างมีประสิทธิภาพเพียงใดเป็นคำถามสองข้อที่แตกต่างกันโดยสิ้นเชิง สิ่งที่เราต้องทำคือการเพิ่มประสิทธิภาพของบริบทการประมวลผลโมเดลแบบขนานในขณะที่เพิ่มความยาวของบริบทของโมเดล ตัวอย่างเช่น ในรายงาน "Lost in the Middle: How Language Models Use Long Contexts" บทความจะอธิบายว่าโมเดลสามารถเข้าใจข้อมูลที่จุดเริ่มต้นและจุดสิ้นสุดของดัชนีได้ดีขึ้น แทนที่จะเป็นข้อมูลตรงกลาง
ในปัจจุบัน ความชอบของมนุษย์ถูกกำหนดโดยการเปรียบเทียบ: ผู้อธิบายที่เป็นมนุษย์จะกำหนดว่าการตอบสนอง A ดีกว่าการตอบสนอง B หรือไม่ แต่อย่าพิจารณาว่าการตอบสนอง A ดีกว่าการตอบสนอง B มากน้อยเพียงใด
Linus Lee อธิบายเรื่องนี้ได้ดีในการบรรยายของเขาเรื่อง "อินเทอร์เฟซที่สร้างโดย AI นอกเหนือจากการแชท" ตัวอย่างเช่น หากคุณต้องการถามคำถามเกี่ยวกับคอลัมน์ในแผนภูมิที่คุณกำลังทำอยู่ คุณควรชี้ไปที่คอลัมน์นั้นแล้วถามได้เลย
ภาพหลอนร้ายแรง การพัฒนาทางเลือก GPU รุ่นใหญ่ยังคงเผชิญกับความท้าทายหลัก 10 ประการนี้
การเปิดตัว ChatGPT, GPT-4 ฯลฯ เราจะได้เห็นเสน่ห์ของโมเดลขนาดใหญ่ (LLM) ที่มาพร้อมกับความท้าทายต่างๆ ที่โมเดลต้องเผชิญ
จะทำให้ LLM ดีขึ้นได้อย่างไร? เผชิญปัญหารุ่นใหญ่ต้องแก้ไขอะไรบ้าง? กลายเป็นหัวข้อวิจัยที่สำคัญในสาขา AI
ในบทความนี้ Chip Huyen นักวิทยาศาสตร์คอมพิวเตอร์เริ่มต้นจาก 10 แง่มุมและอธิบายความท้าทายที่ LLM เผชิญอย่างครอบคลุม โดยเฉพาะอย่างยิ่ง สองประเด็นแรกนั้นเกี่ยวกับภาพหลอนและการเรียนรู้บริบท และแง่มุมอื่นๆ อีกหลายแง่มุม รวมถึงแต่ไม่จำกัดเพียงความหลากหลายทางสถาปัตยกรรม การค้นหาทางเลือก GPU เป็นต้น
ต่อไปนี้เป็นการแปลข้อความต้นฉบับ
1. วิธีลดอาการประสาทหลอน
ปัญหาประสาทหลอนคือเมื่อข้อความที่สร้างโดย LLM มีความลื่นไหลและเป็นธรรมชาติ แต่ไม่ตรงตามแหล่งที่มาของเนื้อหา (ปัญหาภายใน) และ/หรือไม่แน่นอน (ปัญหาภายนอก) ปัญหานี้มีอยู่อย่างกว้างขวางใน LLM
ดังนั้นจึงเป็นเรื่องสำคัญมากที่จะต้องบรรเทาอาการประสาทหลอนและพัฒนาตัวชี้วัดเพื่อวัดอาการประสาทหลอน และบริษัทและสถาบันหลายแห่งกำลังให้ความสนใจกับปัญหานี้ Chip Huyen กล่าวว่ามีหลายวิธีในการลดอาการประสาทหลอนในระยะนี้ เช่น การเพิ่มบริบทให้กับข้อความ การใช้สายความคิด หรือทำให้การตอบสนองของแบบจำลองมีความกระชับมากขึ้น
วัสดุที่สามารถอ้างอิงได้ ได้แก่ :
2. ปรับความยาวบริบทและโครงสร้างบริบทให้เหมาะสม
การวิจัยที่มุ่งเน้นอีกประการหนึ่งของ LLM คือความยาวของบริบท เนื่องจากโมเดลขนาดใหญ่จำเป็นต้องอ้างอิงถึงบริบทเมื่อตอบคำถามของผู้ใช้ และยิ่งความยาวที่สามารถประมวลผลได้มากเท่าไรก็ยิ่งมีประโยชน์สำหรับ LLM มากขึ้นเท่านั้น ตัวอย่างเช่น เราถาม ChatGPT ว่า "ร้านอาหารเวียดนามร้านไหนดีที่สุด" เมื่อต้องเผชิญกับคำถามนี้ ChatGPT จำเป็นต้องอ้างอิงบริบทเพื่อดูว่าผู้ใช้ถามเกี่ยวกับร้านอาหารเวียดนามที่ดีที่สุดในเวียดนามหรือร้านอาหารเวียดนามที่ดีที่สุดใน United รัฐ.ไม่เหมือนกัน.
ภายใต้ส่วนย่อยนี้ Chip Huyen นำเสนอเอกสารที่เกี่ยวข้องหลายฉบับ
เรื่องแรกคือ "SITUATEDQA: Incorporating Extra-Linguistic Contexts into QA" ผู้เขียนทั้งสองคนมาจากมหาวิทยาลัยเท็กซัสที่ออสติน บทความนี้จะแนะนำชุดข้อมูล QA แบบดึงข้อมูลแบบเปิด SITUATEDQA และผู้อ่านที่สนใจสามารถตรวจสอบเพื่อเรียนรู้เพิ่มเติมได้
Chip Huyen กล่าวว่าเนื่องจากโมเดลเรียนรู้จากบริบทที่ให้มา กระบวนการนี้จึงเรียกว่าการเรียนรู้ตามบริบท
กระบวนการดำเนินการ RGA แบ่งออกเป็นสองขั้นตอน: ขั้นตอนการเป็นก้อน (หรือที่เรียกว่าการดึงข้อมูล) และขั้นตอนการสืบค้น:
โมเดลสามารถใช้บริบทได้มากเพียงใดและโมเดลใช้บริบทได้อย่างมีประสิทธิภาพเพียงใดเป็นคำถามสองข้อที่แตกต่างกันโดยสิ้นเชิง สิ่งที่เราต้องทำคือการเพิ่มประสิทธิภาพของบริบทการประมวลผลโมเดลแบบขนานในขณะที่เพิ่มความยาวของบริบทของโมเดล ตัวอย่างเช่น ในรายงาน "Lost in the Middle: How Language Models Use Long Contexts" บทความจะอธิบายว่าโมเดลสามารถเข้าใจข้อมูลที่จุดเริ่มต้นและจุดสิ้นสุดของดัชนีได้ดีขึ้น แทนที่จะเป็นข้อมูลตรงกลาง
3. ต่อเนื่องหลายรูปแบบ
Chip Huyen เชื่อว่าความหลากหลายรูปแบบมีความสำคัญมาก
ประการแรก โดเมนต่างๆ รวมถึงการดูแลสุขภาพ หุ่นยนต์ อีคอมเมิร์ซ การค้าปลีก เกม ความบันเทิง ฯลฯ จำเป็นต้องมีข้อมูลหลายรูปแบบ ตัวอย่างเช่น การทำนายทางการแพทย์จำเป็นต้องมีเนื้อหาข้อความ เช่น บันทึกของแพทย์ และแบบสอบถามของผู้ป่วย ตลอดจนข้อมูลรูปภาพ เช่น การสแกน CT, X-ray และ MRI
ประการที่สอง ความหลากหลายหลายรูปแบบสัญญาว่าจะปรับปรุงประสิทธิภาพของโมเดลอย่างมาก โดยโมเดลที่สามารถเข้าใจทั้งข้อความและรูปภาพทำงานได้ดีกว่าโมเดลที่สามารถเข้าใจเพียงข้อความเท่านั้น แต่โมเดลแบบข้อความมีความต้องการข้อความมากจนผู้คนเริ่มกังวลว่าข้อมูลอินเทอร์เน็ตจะหมดในเร็วๆ นี้เพื่อฝึกโมเดล เมื่อข้อความหมดลงแล้ว เราจำเป็นต้องพิจารณารูปแบบข้อมูลอื่นๆ
เกี่ยวกับ multimodality คุณสามารถอ้างถึงเนื้อหาต่อไปนี้:
4. ทำให้ LLM เร็วขึ้นและถูกลง
GPT-3.5 เปิดตัวครั้งแรกในช่วงปลายเดือนพฤศจิกายน 2022 และหลายคนกังวลเรื่องต้นทุนการใช้งานที่สูง อย่างไรก็ตาม ในเวลาเพียงครึ่งปี ชุมชนได้พบโมเดลที่ใกล้เคียงกับ GPT-3.5 ในแง่ของประสิทธิภาพ และขนาดหน่วยความจำที่ต้องการคือเพียง 2% ของ GPT-3.5
Chip Huyen กล่าวว่าหากคุณสร้างสิ่งที่ดีพอ ผู้คนจะพบวิธีทำให้มันรวดเร็วและราคาถูกในไม่ช้า
วิธีการทั้งสี่ข้างต้นยังคงได้รับความนิยม เช่น การฝึกอัลปาก้าด้วยการกลั่นความรู้ และ QLoRA ผสมผสานการสลายตัวและการหาปริมาณระดับต่ำ
5. ออกแบบสถาปัตยกรรมโมเดลใหม่
นับตั้งแต่เปิดตัว AlexNet ในปี 2012 สถาปัตยกรรมจำนวนมากรวมถึง LSTM, seq2seq ก็ได้รับความนิยมและล้าสมัยไป ต่างจากเรื่องนั้น Transformer มีความเหนียวอย่างไม่น่าเชื่อ มีมาตั้งแต่ปี 2560 และยังคงใช้กันอย่างแพร่หลายจนถึงปัจจุบัน สถาปัตยกรรมนี้จะได้รับความนิยมได้นานแค่ไหนนั้นยากที่จะประมาณได้
อย่างไรก็ตาม มันไม่ง่ายเลยที่จะพัฒนาสถาปัตยกรรมใหม่ทั้งหมดเพื่อให้เหนือกว่า Transformer ในช่วง 6 ปีที่ผ่านมา นักวิจัยได้ทำการปรับปรุง Transformer มากมาย นอกจากสถาปัตยกรรมโมเดลแล้ว ยังรวมถึงการเพิ่มประสิทธิภาพในระดับฮาร์ดแวร์ด้วย
ห้องปฏิบัติการที่นำโดยนักวิทยาศาสตร์คอมพิวเตอร์ชาวอเมริกัน Chris Ré ได้ทำการวิจัยมากมายเกี่ยวกับ S4 ในปี 2021 สำหรับข้อมูลเพิ่มเติม โปรดดูบทความ "การสร้างแบบจำลองลำดับยาวอย่างมีประสิทธิภาพด้วยช่องว่างสถานะที่มีโครงสร้าง" นอกจากนี้ ห้องปฏิบัติการ Chris Ré ได้ลงทุนอย่างมากในการพัฒนาสถาปัตยกรรมใหม่ๆ และเมื่อเร็วๆ นี้พวกเขาได้ร่วมมือกับสตาร์ทอัพ Together เพื่อพัฒนาสถาปัตยกรรม Monarch Mixer
แนวคิดหลักของพวกเขาคือสำหรับสถาปัตยกรรม Transformer ที่มีอยู่ ความซับซ้อนของความสนใจคือกำลังสองของความยาวลำดับ ในขณะที่ความซับซ้อนของ MLP คือกำลังสองของมิติแบบจำลอง และสถาปัตยกรรมที่มีความซับซ้อนต่ำจะมีประสิทธิภาพมากกว่า
GPU ครอบงำการเรียนรู้เชิงลึกนับตั้งแต่เปิดตัว AlexNet ในปี 2012 ในความเป็นจริง เหตุผลที่ยอมรับกันดีประการหนึ่งที่ทำให้ AlexNet ได้รับความนิยมก็คือ นี่เป็นรายงานฉบับแรกที่ประสบความสำเร็จในการฝึกโครงข่ายประสาทเทียมโดยใช้ GPU ก่อนการเกิดขึ้นของ GPU หากคุณต้องการฝึกโมเดลขนาด AlexNet คุณต้องใช้ CPU หลายพันตัว และ GPU เพียงไม่กี่ตัวก็สามารถทำได้
ในช่วงทศวรรษที่ผ่านมา ทั้งองค์กรขนาดใหญ่และบริษัทสตาร์ทอัพต่างก็พยายามสร้างฮาร์ดแวร์ใหม่สำหรับปัญญาประดิษฐ์ ตัวแทนส่วนใหญ่รวมถึงแต่ไม่จำกัดเพียง TPU ของ Google, IPU ของ Graphcore และ Cerebras บริษัทชิป AI นอกจากนี้ SambaNova สตาร์ทอัพด้านชิป AI ยังระดมทุนได้มากกว่า 1 พันล้านดอลลาร์เพื่อพัฒนาชิป AI ใหม่
ทิศทางที่น่าตื่นเต้นอีกประการหนึ่งคือชิปโฟโตนิกซึ่งใช้โฟตอนเพื่อย้ายข้อมูลไปรอบๆ ทำให้สามารถคำนวณได้เร็วและมีประสิทธิภาพยิ่งขึ้น บริษัทสตาร์ทอัพหลายแห่งในพื้นที่นี้สามารถระดมทุนได้หลายร้อยล้านดอลลาร์ รวมถึง Lightmatter (270 ล้านดอลลาร์), Ayar Labs (220 ล้านดอลลาร์), Lightelligence (200 ล้านดอลลาร์ขึ้นไป) และ Luminous Compute (115 ล้านดอลลาร์)
ต่อไปนี้เป็นลำดับเวลาของความคืบหน้าของแนวทางหลักสามประการในการคำนวณเมทริกซ์โฟโตนิก ซึ่งนำมาจากรายงาน "การคูณเมทริกซ์โฟโตนิกจะส่องสว่างตัวเร่งโฟโตนิกและอื่น ๆ " ทั้งสามวิธี ได้แก่ การแปลงแสงระนาบ (PLC), อินเตอร์เฟอโรมิเตอร์ Mach-Zehnder (MZI) และมัลติเพล็กซ์การแบ่งความยาวคลื่น (WDM)
ตัวแทนคือ LLM ที่สามารถดำเนินการต่างๆ เช่น ท่องอินเทอร์เน็ต ส่งอีเมล จองห้องพัก ฯลฯ เมื่อเทียบกับทิศทางการวิจัยอื่น ๆ ในบทความนี้ แนวทางนี้ปรากฏค่อนข้างช้าและใหม่มากสำหรับทุกคน
เป็นเพราะความแปลกใหม่และศักยภาพที่ยอดเยี่ยมที่ทำให้ทุกคนหลงใหลในตัวแทนที่ชาญฉลาดอย่างบ้าคลั่ง ปัจจุบัน Auto-GPT เป็นโครงการที่ได้รับความนิยมสูงสุดอันดับที่ 25 บน GitHub GPT-Engineering เป็นอีกหนึ่งโครงการที่ได้รับความนิยมมาก
แม้ว่าสิ่งนี้จะเป็นที่คาดหวังและน่าตื่นเต้น แต่ก็ยังคงเป็นที่น่าสงสัยว่า LLM จะมีความน่าเชื่อถือเพียงพอและมีประสิทธิภาพเพียงพอที่จะได้รับสิทธิ์ในการดำเนินการหรือไม่
อย่างไรก็ตาม กรณีการสมัครที่ปรากฏอยู่แล้วคือการใช้ตัวแทนในการวิจัยทางสังคม เมื่อไม่นานมานี้ Stanford ได้เปิดซอร์ส "เมืองเสมือนจริง" Smallville มีเจ้าหน้าที่ AI 25 คนอาศัยอยู่ในเมือง พวกเขามีงาน ซุบซิบได้ และสามารถจัดระเบียบสังคมได้ กิจกรรมต่างๆ ได้รู้จักเพื่อนใหม่ และแม้กระทั่งจัดงานปาร์ตี้วันวาเลนไทน์ Town Dweller แต่ละคนก็มีบุคลิกและเรื่องราวเบื้องหลังที่เป็นเอกลักษณ์
สำหรับรายละเอียดเพิ่มเติม โปรดดูเอกสารต่อไปนี้
สตาร์ทอัพที่มีชื่อเสียงที่สุดในพื้นที่นี้น่าจะเป็น Adept ซึ่งก่อตั้งโดยผู้ร่วมเขียน Transformer สองคนและอดีตรองประธาน OpenAI และระดมทุนได้เกือบ 500 ล้านดอลลาร์จนถึงปัจจุบัน เมื่อปีที่แล้ว พวกเขาสาธิตวิธีที่ตัวแทนสามารถท่องอินเทอร์เน็ตและเพิ่มบัญชีใหม่ไปยัง Salesforce ได้อย่างไร
, ระยะเวลา 03:30 น
8. การเรียนรู้ที่ได้รับการปรับปรุงจากความชอบของมนุษย์
RLHF ย่อมาจาก Reinforcement Learning from Human Preferences คงไม่น่าแปลกใจหากผู้คนพบวิธีอื่นในการฝึกอบรม LLM เนื่องจาก RLHF ยังคงมีปัญหาอีกมากมายให้แก้ไข Chip Huyen ระบุ 3 ประเด็นต่อไปนี้
**จะแสดงความชอบของมนุษย์ในทางคณิตศาสตร์ได้อย่างไร? **
ในปัจจุบัน ความชอบของมนุษย์ถูกกำหนดโดยการเปรียบเทียบ: ผู้อธิบายที่เป็นมนุษย์จะกำหนดว่าการตอบสนอง A ดีกว่าการตอบสนอง B หรือไม่ แต่อย่าพิจารณาว่าการตอบสนอง A ดีกว่าการตอบสนอง B มากน้อยเพียงใด
**ความชอบของมนุษย์คืออะไร? **
Anthropic วัดคุณภาพการตอบสนองของโมเดลตามแกน 3 ประการ ได้แก่ ความมีประโยชน์ ความซื่อสัตย์ และความไร้เดียงสา
DeepMind ยังพยายามสร้างคำตอบที่ตรงใจคนส่วนใหญ่ด้วย ดูเอกสารด้านล่างนี้
แต่เพื่อให้ชัดเจน เราต้องการ AI ที่ยืนหยัดได้ หรือ AI ทั่วไปที่หลีกเลี่ยงหัวข้อที่อาจก่อให้เกิดข้อขัดแย้ง
**ความชอบของใครคือความชอบของ “คน”? **
เมื่อพิจารณาถึงความแตกต่างในด้านวัฒนธรรม ศาสนา ฯลฯ จึงมีความท้าทายมากมายในการได้รับข้อมูลการฝึกอบรมที่เป็นตัวแทนผู้ใช้ที่มีศักยภาพทั้งหมดอย่างเพียงพอ
ตัวอย่างเช่น ในข้อมูล InstructGPT ของ OpenAI ผู้ติดป้ายกำกับส่วนใหญ่เป็นชาวฟิลิปปินส์และบังคลาเทศ ซึ่งอาจทำให้เกิดการเบี่ยงเบนบางประการเนื่องจากความแตกต่างทางภูมิศาสตร์
ชุมชนการวิจัยก็กำลังดำเนินการเรื่องนี้เช่นกัน แต่ยังคงมีอคติด้านข้อมูลอยู่ ตัวอย่างเช่น ในการกระจายข้อมูลประชากรของชุดข้อมูล OpenAssistant ผู้ตอบแบบสอบถาม 201 รายจาก 222 ราย (90.5%) เป็นชาย
ตั้งแต่ ChatGPT ก็มีการอภิปรายกันมากมายว่าการแชทเหมาะสมกับงานต่างๆ หรือไม่ ตัวอย่างการสนทนาเหล่านี้:
อย่างไรก็ตาม การสนทนาเหล่านี้ไม่ใช่เรื่องใหม่ หลายประเทศโดยเฉพาะในเอเชียใช้การแชทเป็นอินเทอร์เฟซสำหรับซูเปอร์แอปมาประมาณทศวรรษแล้ว
ในปี 2016 เมื่อหลายคนคิดว่าแอปต่างๆ ตายไปแล้วและแชทบอทคืออนาคต การสนทนาก็เริ่มตึงเครียดอีกครั้ง:
Chip Huyen กล่าวว่าเขาชอบอินเทอร์เฟซการแชทมากด้วยเหตุผลดังต่อไปนี้:
อย่างไรก็ตาม Chip Huyen คิดว่าอินเทอร์เฟซการแชทยังมีพื้นที่ให้ปรับปรุงในบางด้าน เขามีข้อเสนอแนะดังต่อไปนี้
ปัจจุบันคิดว่าสามารถส่งข้อความได้เพียงข้อความเดียวต่อรอบ แต่นั่นไม่ใช่วิธีที่ผู้คนส่งข้อความในชีวิตจริง โดยปกติแล้ว จำเป็นต้องมีข้อมูลหลายส่วนเพื่อทำให้แนวคิดของแต่ละบุคคลสมบูรณ์ เนื่องจากจำเป็นต้องแทรกข้อมูลที่แตกต่างกัน (เช่น รูปภาพ สถานที่ ลิงก์) ในกระบวนการ และผู้ใช้อาจพลาดบางสิ่งบางอย่างในข้อมูลก่อนหน้านี้ หรือเพียงแค่ไม่ได้ ต้องการรวมทุกอย่าง เขียนเป็นย่อหน้ายาว
ในขอบเขตของแอปพลิเคชันหลายรูปแบบ ความพยายามส่วนใหญ่ถูกใช้ไปกับการสร้างแบบจำลองที่ดีขึ้น และใช้เวลาเพียงเล็กน้อยในการสร้างอินเทอร์เฟซที่ดีขึ้น ในกรณีของแชทบอท NeVA ของ Nvidia อาจมีช่องว่างในการปรับปรุงประสบการณ์ผู้ใช้
Linus Lee อธิบายเรื่องนี้ได้ดีในการบรรยายของเขาเรื่อง "อินเทอร์เฟซที่สร้างโดย AI นอกเหนือจากการแชท" ตัวอย่างเช่น หากคุณต้องการถามคำถามเกี่ยวกับคอลัมน์ในแผนภูมิที่คุณกำลังทำอยู่ คุณควรชี้ไปที่คอลัมน์นั้นแล้วถามได้เลย
ที่อยู่วิดีโอ:
เป็นเรื่องที่ควรค่าแก่การพิจารณาว่าการแก้ไขหรือลบการป้อนข้อมูลของผู้ใช้สามารถเปลี่ยนขั้นตอนการสนทนาด้วยแชทบอตได้อย่างไร
10. การสร้าง LLM สำหรับภาษาที่ไม่ใช่ภาษาอังกฤษ
LLM ในปัจจุบันสำหรับภาษาอังกฤษเป็นภาษาแรกไม่สามารถปรับขนาดให้เข้ากับภาษาอื่นได้ดีนักในแง่ของประสิทธิภาพ เวลาแฝง และความเร็ว เนื้อหาที่เกี่ยวข้องสามารถอ่านบทความต่อไปนี้:
Chip Huyen กล่าวว่าผู้อ่านบทความนี้ในยุคแรกๆ หลายคนบอกเขาว่าพวกเขาคิดว่าไม่ควรรวมทิศทางนี้ด้วยเหตุผลสองประการ
ผลกระทบของเครื่องมือ AI เช่น การแปลด้วยเครื่องและแชทบอท ต่อการเรียนรู้ภาษายังไม่ชัดเจน ไม่ว่าพวกเขาช่วยให้ผู้คนเรียนรู้ภาษาใหม่เร็วขึ้นหรือขจัดความจำเป็นในการเรียนรู้ภาษาใหม่ทั้งหมดหรือไม่ก็ตาม
สรุป
ปัญหาที่กล่าวถึงในบทความนี้ยังมีระดับความยากที่แตกต่างกัน เช่น ปัญหาสุดท้าย หากคุณสามารถหาทรัพยากรและเวลาได้เพียงพอ ก็สามารถสร้าง LLM สำหรับภาษาที่ไม่ใช่ภาษาอังกฤษได้
ปัญหาแรกๆ ประการหนึ่งคือการลดภาพหลอน ซึ่งจะยากกว่ามาก เพราะภาพหลอนเป็นเพียง LLM ที่ทำสิ่งที่น่าจะเป็นไปได้
ปัญหาที่สี่คือการทำให้ LLM เร็วขึ้นและถูกลง และสิ่งนี้จะไม่ได้รับการแก้ไขอย่างสมบูรณ์ มีความคืบหน้าบางประการในด้านนี้ และจะมีความก้าวหน้ามากขึ้นในอนาคต แต่เราจะไม่ปรับปรุงเพื่อความสมบูรณ์แบบ
ประเด็นที่ห้าและหกคือสถาปัตยกรรมใหม่และฮาร์ดแวร์ใหม่ซึ่งมีความท้าทายมาก แต่ก็หลีกเลี่ยงไม่ได้เมื่อเวลาผ่านไป เนื่องจากความสัมพันธ์ทางชีวภาพระหว่างสถาปัตยกรรมและฮาร์ดแวร์ โดยที่สถาปัตยกรรมใหม่จำเป็นต้องได้รับการปรับให้เหมาะสมสำหรับฮาร์ดแวร์ที่ใช้งานทั่วไป และฮาร์ดแวร์จำเป็นต้องรองรับสถาปัตยกรรมที่ใช้งานทั่วไป ปัญหานี้จึงอาจแก้ไขได้โดยบริษัทเดียวกัน
นอกจากนี้ยังมีปัญหาที่ไม่สามารถแก้ไขได้ด้วยความรู้ด้านเทคนิคเพียงอย่างเดียว ตัวอย่างเช่น ปัญหาที่แปดของการปรับปรุงวิธีการเรียนรู้จากความชอบของมนุษย์อาจเป็นปัญหาด้านนโยบายมากกว่าปัญหาทางเทคนิค เมื่อพูดถึงคำถามที่เก้า การปรับปรุงประสิทธิภาพของอินเทอร์เฟซ นี่เป็นเหมือนปัญหาประสบการณ์ผู้ใช้มากกว่า และจำเป็นต้องมีผู้คนจำนวนมากที่ไม่มีพื้นฐานด้านเทคนิคเพื่อแก้ไขปัญหานี้ร่วมกัน
หากคุณต้องการมองปัญหาเหล่านี้จากมุมอื่น Chip Huyen แนะนำให้อ่านบทความต่อไปนี้