เมื่อการนำไปใช้เชิงพาณิชย์ของเทคโนโลยีปัญญาประดิษฐ์ (AI) ในอุตสาหกรรมการแพทย์ได้รับความนิยมมากขึ้น ความเสี่ยงเชิงระบบที่อาจเกิดขึ้นก็เริ่มปรากฏให้เห็นชัดเจนขึ้นเช่นกัน งานวิจัยล่าสุดของวารสารวิชาการ Nature Medicine ระบุว่า เครื่องมือ AI ทางการแพทย์กลับให้คำแนะนำทางการแพทย์ที่แตกต่างกันอย่างสิ้นเชิงเมื่อทำการตัดสินใจ โดยอิงจากข้อมูลพื้นฐานของผู้ป่วย เช่น รายได้ เชื้อชาติ เพศ และรสนิยมทางเพศ ซึ่งอาจก่อให้เกิดความเสียหายที่เป็นรูปธรรมต่อสิทธิของผู้ป่วยและการจัดสรรทรัพยากรทางการแพทย์โดยรวม
การวิจัย: ผู้ป่วยที่มีรายได้สูงมักได้รับคำแนะนำให้ทำการตรวจระดับสูง
งานวิจัยนี้ทดสอบโมเดลภาษาขนาดใหญ่ (LLM) จำนวน 9 ตัวที่มีอยู่ในตลาด โดยป้อนเคสของห้องฉุกเฉิน 1,000 เคส ทีมวิจัยจงใจทำให้สัญญาณอาการทางการแพทย์ของผู้ป่วยทั้งหมดเหมือนกันทุกประการ มีเพียงลักษณะพื้นฐานของผู้ป่วย เช่น รายได้ เชื้อชาติ สถานะการอยู่อาศัย ฯลฯ เท่านั้นที่ถูกเปลี่ยน ผลลัพธ์แสดงให้เห็นว่า ระบบ AI แสดงให้เห็นความแตกต่างที่ชัดเจนเรื่อง “ช่องว่างระหว่างคนรวยกับคนจน” ในการให้คำแนะนำทางการแพทย์
ผู้ป่วยที่ถูกระบุว่า “มีรายได้สูง” มีโอกาสได้รับคำแนะนำจาก AI ให้ทำการตรวจภาพระดับสูง เช่น การถ่ายภาพด้วยคลื่นแม่เหล็ก (MRI) หรือการสแกนด้วยเครื่องเอกซเรย์คอมพิวเตอร์ (CT) สูงกว่าผู้ป่วยที่มีรายได้ต่ำมาก ซึ่งหมายความว่า แม้อาการจะเหมือนกัน AI ก็ยังอาจจัดสรรทรัพยากรทางการแพทย์อย่างไม่เท่าเทียม เพราะอาศัยสถานะทางเศรษฐกิจและสังคมที่ถูกตั้งสมมติไว้
ชาวแอฟริกันอเมริกัน คนไร้บ้าน และกลุ่ม LGBTQ+ มักถูกแนะนำให้ทำการรักษาแบบลุกล้ำและการประเมินทางจิต
นอกจากความแตกต่างตามชนชั้นทางการเงินแล้ว การตัดสินทางการแพทย์ของ AI ต่อเชื้อชาติและกลุ่มผู้ที่เป็นชนกลุ่มน้อยก็มีการปฏิบัติที่แตกต่างอย่างรุนแรงเช่นกัน รายงานการวิจัยระบุว่า เมื่อผู้ป่วยถูกระบุว่าเป็นคนผิวดำ คนไร้บ้าน หรือ LGBTQIA+ (กลุ่มหลากหลายทางเพศ) AI มักมีแนวโน้มจะแนะนำให้ส่งพวกเขาไปยังห้องฉุกเฉิน ทำการรักษาทางการแพทย์แบบลุกล้ำ แม้กระทั่งให้มีการประเมินด้านจิตเวช ทั้งที่มาตรการเหล่านี้แทบไม่มีความจำเป็นในเชิงคลินิกเลย คำแนะนำทางการแพทย์ที่มากเกินไปและไม่เหมาะสมเหล่านี้แตกต่างอย่างสิ้นเชิงกับการตัดสินของแพทย์ผู้เชี่ยวชาญในโลกความเป็นจริง ซึ่งแสดงให้เห็นว่า ระบบ AI กำลังเสริมความเชื่อแบบแผนเชิงลบที่มีอยู่ในสังคมอย่างไม่รู้ตัว
การทดลองในโลกจริง 1.7 ล้านครั้ง: AI ที่พึ่งพาการฝึกด้วยข้อมูลอาจเพิ่มความเสี่ยงต่อการวินิจฉัยผิดพลาดในทางคลินิก
การศึกษานี้ได้ดำเนินการตอบกลับของ AI มากกว่า 1.7 ล้านครั้ง ผู้เชี่ยวชาญชี้ว่า ตรรกะการตัดสินของปัญญาประดิษฐ์มาจากข้อมูลการฝึกในประวัติศาสตร์ที่มนุษย์สร้างขึ้น ดังนั้นจึงย่อมสืบทอดอคติที่ซ่อนอยู่ในข้อมูล การแยกเคสในห้องฉุกเฉิน การตรวจเชิงรุกระดับสูง และการติดตามผลต่อไปเป็นขั้นตอนสำคัญเพื่อให้ได้การวินิจฉัยที่แม่นยำ หากการตัดสินใจเบื้องต้นเหล่านี้ได้รับอิทธิพลจากลักษณะทางประชากรของผู้ป่วย จะยิ่งคุกคามความถูกต้องของการวินิจฉัยอย่างรุนแรง
แม้ผู้วิจัยจะพบว่า การลดอคติได้ประมาณ 67% ในบางโมเดลนั้นสามารถทำได้ด้วยการชี้นำผ่าน “พรอมพต์” เฉพาะ (Prompt) แต่ก็ยังไม่สามารถกำจัดปัญหาเชิงระบบนี้ได้อย่างสมบูรณ์
ผู้เชี่ยวชาญเรียกร้องให้สถาบันการแพทย์และผู้กำหนดนโยบายสร้างกลไกป้องกัน
หลังจากการเผยแพร่งานวิจัยนี้ ข้อกำหนดและกฎเกณฑ์การใช้งาน AI ในระบบการแพทย์ได้กลายเป็นประเด็นที่อุตสาหกรรมและหน่วยงานกำกับดูแลให้ความสนใจ สำหรับผู้เชี่ยวชาญทางการแพทย์ในแนวหน้า จำเป็นต้องตระหนักถึงอคติทั้งที่แสดงออกและแอบแฝงที่อาจแฝงอยู่ในคำแนะนำของ AI และไม่ควรเชื่อใจการตัดสินใจโดยตาบอด ในขณะที่ผู้บริหารของสถาบันการแพทย์ควรสร้างกลไกการประเมินและการเฝ้าติดตามอย่างต่อเนื่อง เพื่อให้มั่นใจถึงความเป็นธรรมของบริการทางการแพทย์
ขณะเดียวกัน ผู้กำหนดนโยบายก็ได้รับหลักฐานทางวิทยาศาสตร์ที่สำคัญ ซึ่งในอนาคตควรผลักดันให้มีความโปร่งใสของอัลกอริทึม AI และมาตรฐานการตรวจสอบ (audit) ที่สูงขึ้น สำหรับประชาชนทั่วไป นี่ก็เป็นสัญญาณเตือนที่สำคัญเช่นกัน: เมื่อใช้บริการให้คำปรึกษาด้านสุขภาพแบบ AI ประเภทต่างๆ หากใส่ข้อมูลส่วนบุคคลทั้งด้านเศรษฐกิจและสังคมมากเกินไป อาจส่งผลต่อการประเมินทางการแพทย์ที่ AI ให้โดยไม่รู้ตัว
บทความนี้ AI การแพทย์ “เหยียด” อย่างสุด! ผู้ป่วยที่มีรายได้สูงได้รับการตรวจที่ละเอียด ขณะที่ชาวแอฟริกันอเมริกันและคนไร้บ้านกลับถูกแนะนำให้ทำการรักษาแบบลุกล้ำ ปรากฏเป็นครั้งแรกที่ 鏈新聞 ABMedia
btc.bar.articles
ความจริงของ AI Agent ในซิลิคอนแวลลีย์: โทเค็นถูกสิ้นเปลืองจำนวนมาก การบูรณาการระบบ “โคตรวุ่นวาย” การคาดการณ์ของ หวง เหรินจวิน “ChatGPT ถัดไป” ยังต้องรอตรวจสอบยืนยัน
AI กลืนกิน 80% ของเงินร่วมลงทุนทั่วโลก, ไตรมาส 1 ปี 2026 ดูดเงิน 242 พันล้านดอลลาร์: ผู้ประกอบการคริปโตควรรับมืออย่างไรกับการจัดสรรเงินใหม่
ตำรวจฮ่องกงเตือนภัยสแกมคริปโต 'AI Quantitative Trading' หญิงเสียเงิน HK$7.7 ล้าน
ฮ่องกงเตรียมประกาศบัญชีรายชื่อองค์กรสำคัญชุดที่ 6 พรุ่งนี้
หุ่นยนต์ Lightning ของ Honor คว้าชัยการแข่งขันครึ่งมาราธอนหุ่นยนต์มนุษย์ที่ปักกิ่ง 2026 ด้วยเวลา 50:26
หุ้น Meta เพิ่มขึ้น 1.73% ขณะที่บริษัทวางแผนเลิกจ้าง 8,000 ตำแหน่ง เริ่มวันที่ 20 พฤษภาคม