มีการเปิดเผยข้อมูลว่า “Claude ลดความฉลาด” ไม่ใช่เรื่องเล่าลือในเมือง และโมเดล AI ที่ไม่เสถียรนั้นก่อให้เกิดความเสี่ยงต่อองค์กร

ChainNewsAbmedia

หลังจากที่ AI กลายเป็นเครื่องมือมาตรฐานสำหรับองค์กรแล้ว ปรากฏการณ์ที่ในอดีตเคยถูกมองว่าเป็น “ปัญหาความรู้สึก” กำลังโผล่ขึ้นมาให้เห็นอย่างรวดเร็ว: LLM (โมเดลภาษาขนาดใหญ่) กำลัง “ฉลาดลดลง” ผู้ใช้ Wisely Chen ชี้ว่า “LLM ลดสติ” ไม่ใช่เรื่องเล่าลือในเมือง แต่สามารถติดตามได้อย่างต่อเนื่องด้วยข้อมูล และกำลังส่งผลกระทบเชิงรูปธรรมต่อเวิร์กโฟลว์การทำงานขององค์กร

เขายกตัวอย่างจากประสบการณ์ของตนเอง เมื่อวันที่ 15 เมษายน บริการในเครือของ Anthropic อย่างชุด Claude เกิดการลดระดับแบบครอบคลุม โดย claude.ai, API และ Claude Code แสดง “Degraded Performance” ทั้งหมด นี่ไม่ใช่เพียงแค่ช้าลงหรือเกิดข้อผิดพลาดเป็นครั้งคราว แต่คุณภาพของการตอบกลับพังทลายอย่างชัดเจน และถึงขั้นเกิดสถานการณ์ที่ใช้งานได้ตามปกติไม่ได้ ส่งผลให้งานพัฒนา 3 รายการของเขาในวันนั้นล่าช้าไปทั้งหมด

สถานการณ์แบบนี้อาจเป็นแค่ประสิทธิภาพลดลงสำหรับนักพัฒนาอิสระ แต่สำหรับทีม IT ขององค์กร ผลกระทบจะถูกขยายทวีคูณ เมื่อทีมมีวิศวกรหลายคนพึ่งพาเครื่องมือ AI ในการทำ coding, การเขียนเอกสาร และการทำให้กระบวนการอัตโนมัติพร้อมกัน การที่โมเดลถูกลดระดับในครั้งเดียวหมายถึงความสามารถในการผลิตโดยรวมจะลดลงพร้อมกันในช่วงเวลาเดียวกัน และต่อมาจะกลายเป็นการสูญเสียเวลาและต้นทุนจำนวนมาก

AI รู้สึกเหมือน “ฉลาดน้อยลง” หรือไม่? ข้อมูลยืนยันว่า “ลดระดับไปแล้วก่อนหน้านี้”

Wisely Chen ระบุว่า “GPT ฉลาดน้อยลง” “Claude ไม่เหมือนก่อน” คำกล่าวแบบนี้แพร่สะพายในสังคมออนไลน์มานานแล้ว แต่เป็นเวลานานที่ยังขาดข้อมูลเชิงวัตถุประสงค์รองรับ จนกระทั่งไม่นานมานี้จึงได้มีแพลตฟอร์มที่ติดตามคุณภาพโมเดลอย่างต่อเนื่อง ทำให้ปรากฏการณ์ดังกล่าวถูกวัดผลเป็นตัวเลขเป็นครั้งแรก

ในนั้น StupidMeter ทำการทดสอบอัตโนมัติแบบต่อเนื่องเป็นเวลา 24 ชั่วโมงกับโมเดลหลัก ๆ รวมถึง OpenAI, Anthropic, Google เป็นต้น โดยติดตามตัวชี้วัดอย่างความถูกต้อง ความสามารถในการให้เหตุผล และความเสถียร เป็นต้น ต่างจาก benchmark แบบครั้งเดียวแล้วเสร็จ ระบบลักษณะนี้ยิ่งใกล้เคียงกับวิธีการเฝ้าติดตาม API หรือความพร้อมใช้งานของบริการขององค์กร คือสังเกตความผันผวนของการทำงานของโมเดลในสภาพแวดล้อมการใช้งานจริง

ผลลัพธ์จากข้อมูลค่อนข้างตรงไปตรงมา: ตอนนี้โมเดลหลักส่วนใหญ่ยังอยู่ในสถานะเตือนหรือถูกลดระดับ มีเพียงไม่กี่โมเดลที่ยังคงอยู่ในสถานะปกติ นี่หมายความว่าคุณภาพของโมเดลไม่เสถียร ซึ่งไม่ใช่ปัญหาของผลิตภัณฑ์เดี่ยว แต่เป็นปรากฏการณ์ที่พบทั่วไปในทั้งอุตสาหกรรม

LLM แอบ “ลดสติ” ส่งผลต่อความเสถียรขององค์กรที่ทำงานด้วย AI

สำหรับองค์กร การเปลี่ยนแปลงแบบนี้หมายถึงว่า AI ได้เปลี่ยนจาก “เครื่องมือที่ช่วยเพิ่มประสิทธิภาพ” ไปเป็น “ตัวแปรที่ส่งผลต่อความเสถียร” หากกระบวนการทำงานประจำวันของบริษัท ตั้งแต่การเขียนโค้ด ทำ code review ไปจนถึงการผลิตเอกสารและรายงานการวิเคราะห์ ได้พึ่งพา LLM อย่างสูง เมื่อโมเดลในวันหนึ่งมีความสามารถด้านการให้เหตุผลลดลง หรือคุณภาพของคำตอบตกลง ปัญหาเหล่านี้จะไม่เกิดขึ้นแบบเฉพาะจุดเหมือนบั๊กของซอฟต์แวร์แบบดั้งเดิม แต่จะซึมเข้าไปในทุกขั้นตอนที่ใช้ AI ไปพร้อมกัน

สิ่งที่สำคัญยิ่งกว่าคือ ความผันผวนลักษณะนี้มักคาดเดายาก และตรวจจับได้ยากในทันที องค์กรส่วนใหญ่ไม่มีกลไกในการเฝ้าติดตามคุณภาพโมเดลอย่างต่อเนื่อง โดยทั่วไปจะรับรู้ปัญหาเมื่อผลลัพธ์ผิดปกติ หรือประสิทธิภาพของทีมลดลงแล้วเท่านั้น ในบริบทเช่นนี้ “ลดสติ” ไม่ใช่แค่ความรู้สึกเชิงอัตวิสัยของผู้ใช้เท่านั้น แต่เป็นความเสี่ยงเชิงระบบที่ส่งผลโดยตรงต่อจังหวะการดำเนินงานขององค์กร

เมื่อ AI กลายเป็นน้ำไฟฟ้า ความเสถียรจึงเป็นตัวชี้วัดสำคัญใหม่

Wisely Chen เปรียบ LLM เป็น “น้ำไฟฟ้าขององค์กรสมัยใหม่” เมื่อ AI ได้แทรกซึมเข้าไปในการดำเนินงานประจำวัน และกลายเป็นความสามารถพื้นฐานที่ขาดไม่ได้ ความสำคัญของความเสถียรย่อมยิ่งเพิ่มขึ้น

ในอดีต การประเมินเครื่องมือ AI ขององค์กรให้ความสำคัญกับความสามารถของโมเดล ราคา และฟังก์ชัน แต่เมื่อปรากฏการณ์ “ลดสติ” โผล่ขึ้นมา ตัวชี้วัดอีกหนึ่งอย่างที่สำคัญกว่าก็กำลังถูกหยิบยกขึ้นมา นั่นคือความเสถียร เมื่อคุณภาพของโมเดลอาจเปลี่ยนแปลงได้โดยไม่แจ้งให้ทราบล่วงหน้า องค์กรจึงไม่ได้แค่ “ใช้ AI” อีกต่อไป แต่ต้องเริ่มแบกรับความเสี่ยงด้านโครงสร้างพื้นฐานรูปแบบใหม่ ที่สิ้นหวังยิ่งกว่าคือ หากดูเฉพาะโมเดลภาษาขนาดใหญ่ที่ทันสมัยเท่านั้น โดยพื้นฐานแล้ว ตราบใดที่ปัญหาเรื่องพลังการประมวลผลยังไม่ได้รับการแก้ไข ก็อาจยังคงเกิดขึ้นต่อไปได้

บทความนี้ ข้อมูลเผย “Claude ลดสติ” ไม่ใช่เรื่องเล่าลือในเมือง ความไม่เสถียรของโมเดล AI เป็นความเสี่ยงขององค์กร เป็นครั้งแรกที่ปรากฏใน 鏈新聞 ABMedia。

news.article.disclaimer

btc.bar.articles

CEO ของ Nvidia จอห์นสัน หวง วิจารณ์มาตรการควบคุมการส่งออกชิปของสหรัฐฯ ว่าเป็น "แนวคิดของผู้แพ้"

ผู้บริหารสูงสุดของ Nvidia จอห์นสัน หวง (Jensen Huang) วิจารณ์ข้อจำกัดการส่งออกชิปของสหรัฐฯ โดยโต้แย้งว่าจะไม่กระทบต่อความก้าวหน้าด้าน AI ของจีน เขาย้ำถึงความจำเป็นในการสร้างระบบนิเวศเทคโนโลยีโลกที่เป็นหนึ่งเดียว และเน้นว่าส่วนแบ่งการตลาดของ Nvidia กำลังเติบโตแม้ต้องเผชิญการแข่งขัน โดยชี้ให้เห็นความท้าทายในการสั่นคลอนระบบนิเวศการประมวลผล

GateNews1 ชั่วโมง ที่แล้ว

คนงานเหมืองบิตคอยน์ที่จดทะเบียนในตลาดหลักทรัพย์ขายมากกว่า 32,000 BTC ในไตรมาส 1 ปี 2026 ทำสถิติสูงสุดเป็นประวัติการณ์

ในไตรมาส 1 ปี 2026 คนงานเหมืองบิตคอยน์ขายมากกว่า 32,000 BTC ซึ่งสูงที่สุดเป็นประวัติการณ์ เพื่อกลับไปลงทุนในโครงสร้างพื้นฐานด้าน AI ท่ามกลางต้นทุนการขุดที่เพิ่มสูงขึ้น

GateNews1 ชั่วโมง ที่แล้ว

บริษัทย่อยของ Kunlun Tech Aijie Keixin ระดมทุนด้วยการประเมินมูลค่า $55M ที่ 405.4 ล้านดอลลาร์สหรัฐ

บริษัทย่อยของ Kunlun Tech คือ Beijing Aijie Keixin Technology ระดมทุน 550 ล้านหยวน ($55 million) โดยประเมินมูลค่าบริษัทไว้ที่ราว 4.054 พันล้านหยวน เงินทุนดังกล่าวจะเสริมความแข็งแกร่งให้เงินสำรองทุน และสนับสนุนการพัฒนา AI chip รวมถึงการเตรียมพร้อมสำหรับการเข้าจดทะเบียนอิสระที่อาจเกิดขึ้น

GateNews2 ชั่วโมง ที่แล้ว

สิงคโปร์เสนอมาตรฐานระดับโลกใหม่สำหรับการทดสอบระบบ AI เชิงสร้างสรรค์

สิงคโปร์โดย IMDA และ Enterprise Singapore เสนอมาตรฐานสากลใหม่สำหรับการทดสอบ AI เชิงสร้างสรรค์ (generative AI) เพื่อนำเสนอในที่ประชุมของ ISO โดยต่อยอดจากโครงการทดสอบ AI ที่มีอยู่ และมีเป้าหมายเพื่อกำหนดข้อกำหนดด้านการปฏิบัติตามกฎระเบียบสำหรับการกำกับดูแลทั่วโลก ซึ่งจะช่วยยกระดับบริการด้านการรับประกันความน่าเชื่อถือของ AI

GateNews2 ชั่วโมง ที่แล้ว

Morgan Stanley คาดการณ์ว่า Agentic AI อาจเพิ่มมูลค่า $60B ถึง 32.5B ดอลลาร์ให้กับตลาด CPU ภายในปี 2030

Morgan Stanley คาดการณ์ว่าความต้องการ CPU จะพุ่งสูงขึ้นในปี 2030 จากระบบ AI อัตโนมัติที่ทำงานเอง ซึ่งอาจเพิ่มได้มากถึง $60 พันล้านสู่ตลาด CPU การเปลี่ยนแปลงนี้จะส่งผลต่อการลงทุนในศูนย์ข้อมูลและความต้องการด้านหน่วยความจำ ซึ่งจะเป็นประโยชน์ต่อผู้ผลิตชิปชั้นนำ

GateNews3 ชั่วโมง ที่แล้ว

AI Agents จะเปลี่ยนรูปแบบการเทรด, Onchain OS วางรากฐานโครงสร้างพื้นฐาน

ในงาน 2026 Hong Kong Web3 Carnival, Lennix ได้พูดถึงผลกระทบของ AI Agents ต่อการเทรด และความจำเป็นในการมีระบบปฏิบัติการบนเชน (onchain operating system) ที่ครอบคลุม เขาเน้นย้ำถึงความสำคัญของการผสานรวมทั้งความปลอดภัยและประสิทธิภาพ เพื่อเอื้อให้เกิดการตัดสินใจอย่างอิสระและส่งเสริมปฏิสัมพันธ์ด้านตลาดแบบร่วมมือ

GateNews4 ชั่วโมง ที่แล้ว
แสดงความคิดเห็น
0/400
ไม่มีความคิดเห็น