Gate 廣場|2/27 今日話題: #BTC能否重返7万美元?
🎁 帶話題發帖,抽 5 位幸運兒送出 $2,500 仓位體驗券!
Jane Street 被起訴後,持續多日的“10 點砸盤”疑似消失。BTC 目前在 $67,000 附近震盪,這波反彈能否順勢衝回 $70,000?
💬 本期熱議:
1️⃣ 你認為訴訟與“10 點拋壓”消失有關嗎?市場操縱阻力是否減弱?
2️⃣ 衝擊 $70K 的關鍵壓力區在哪?
3️⃣ 你會在當前價位分批布局,還是等待放量突破再進場?
分享觀點,瓜分好禮 👉️ https://www.gate.com/post
📅 2/27 16:00 - 3/1 12:00 (UTC+8)
醫療照護決策工具中的種族偏見
醫療照護中的種族偏見可能在一些意想不到的地方顯現。一個例子是:在當今患者接受測試、診斷和治療的過程中扮演重要角色的臨床決策工具。
這些工具包含演算法,或逐步操作流程,通常是電腦化的,用於計算如心臟疾病風險、胸部X光需求以及處方藥劑量等因素。人工智慧可以用來篩查健康記錄和帳單系統,以建立所需的資料集。
表面上,這聽起來可能是客觀的。但研究已顯示,這些演算法所使用的資料分析在關鍵方面可能對某些種族和社會經濟群體存在偏見。這可能在這些群體獲得的醫療服務數量和品質方面產生多種後果。
主要重點
種族偏見影響最重病患
2019年,一項針對美國醫院和保險公司廣泛使用的演算法的研究顯示,該演算法系統性地歧視黑人。當兩個種族群體病情相當時,該決策工具較少將黑人轉介至複雜醫療需求的照護管理計畫。
偏見的根本原因與演算法根據前一年醫療費用來評估風險分數有關。假設較高的醫療費用能識別出需求最大的患者,但許多黑人患者因較少醫療資源、較少支付能力和較低信任度,與同樣病重的白人相比,醫療費用較低,並不能準確反映他們的健康狀況。
照護管理計畫採用高接觸方式,例如電話聯絡、護士家訪和優先安排醫生門診,以應對最重病患的複雜需求。這些計畫已證明能改善結果、降低急診和住院次數,以及降低醫療費用。由於這些計畫本身成本較高,通常分配給風險分數最高的人。對最重黑人患者的偏見評分技術,可能是他們因多種疾病死亡風險增加的重要因素。
腎臟疾病中的種族作為變數
演算法可能在未包含種族作為變數的情況下存在偏見,但有些工具則故意將種族作為判斷標準。例如,用於評估腎臟健康並決定是否需要腎臟移植的eGFR分數。
1999年一項研究設定了eGFR分數標準,發現黑人平均肌酸酐(肌肉分解產物)水平高於白人。科學家假設這是由於黑人肌肉量較高,因此調整了評分,這意味著黑人必須有較低的eGFR分數才能被診斷為末期腎病。結果,黑人必須等到腎病更嚴重時才能符合治療資格。
2018年,華盛頓大學醫學院的醫學與公共衛生學生觀察到,eGFR分數在診斷黑人腎病嚴重程度時不準確。她努力爭取將種族從演算法中移除,並成功了。2020年,華盛頓大學醫學院同意,使用種族作為變數是無效的,且不符合醫學診斷工具的科學嚴謹性。
重要
2021年,美國腎臟基金會與美國腎臟學會聯合成立的工作小組建議採用新的2021年CKD EPI肌酸酐方程式,該公式在估算腎功能時不再使用種族作為變數。
身體質量指數與種族偏見
即使是不包含種族的最簡單醫療決策工具,也可能反映社會偏見。例如,身體質量指數(BMI)是基於體重乘以身高的計算,用來識別體重過輕、過重和肥胖患者。
1985年,美國國家衛生研究院將肥胖定義與BMI掛鉤,1998年,一個專家小組制定了基於BMI的指南,將之前被歸類為正常體重或僅過重的2,900萬美國人歸入過重和肥胖類別。
如今,根據BMI標準,大多數黑人、西班牙裔和白人都屬於過重或肥胖。但2021年疾病控制與預防中心(CDC)的一份報告指出,根據種族或族裔群體,能被歸類為肥胖的美國人比例不同。
CDC的數據顯示,成人的比例為:
將女性成人分類為肥胖的比例差異更為明顯:
將如此大比例的族群標籤為過重或肥胖,已造成體重羞辱和患者與醫生之間的不信任氛圍。較重的患者抱怨醫生未針對他們來診的健康問題或疑慮,反而將問題歸咎於體重,並推動減重作為解決方案。這使得許多黑人和西班牙裔患者避免就醫,可能因此錯失預防或早期發現問題的機會。
此外,越來越清楚的是,過重或肥胖並不總是健康問題。某些嚴重疾病如心臟病、中風、2型糖尿病和某些癌症的發病率在肥胖者中較高,但在某些情況下,例如心臟手術後的康復,過重或中度肥胖(非極度肥胖)反而與較佳的存活率相關。
2020年8月,加拿大臨床醫師發布的新肥胖指南強調,醫生應停止僅依賴BMI來診斷患者。根據新指南,只有當體重影響身體健康或心理福祉時,才應診斷為肥胖。治療應採取整體性方法,而非僅針對體重減輕。指南亦指出:「肥胖者面臨大量偏見和污名,這些偏見和污名會增加疾病負擔和死亡率,與體重或身體質量指數無關。」
可以用其他測量方式取代BMI,例如腰圍。肥胖的定義也可能重新界定。2025年1月,一組58位研究人員提出一個新定義,將焦點從BMI轉向過多體脂及其對健康的影響。該團隊提出兩個肥胖分類:前臨床型,指個體脂肪過多但器官功能正常;臨床型,指脂肪過多已損害組織和器官。
降低決策工具偏見
醫療演算法並非唯一可能存在偏見的演算法。正如《新英格蘭醫學雜誌》2020年的一篇文章指出:「這個問題並非醫學專屬。例如,刑事司法系統使用再犯預測工具來指導保釋金額和監禁判決。」作者表示,一個廣泛使用的工具「雖然不直接使用種族,但使用許多與種族相關的因素,並對黑人被告給予較高的風險評分。」
人工智慧(AI)——尤其是機器學習的日益普及,也引發了關於基於種族、社會經濟地位和其他因素偏見的問題。在醫療領域,機器學習常依賴電子健康記錄。貧困和少數族裔患者可能接受碎片化的照護,並在多個機構就診。他們更可能在教學診所就診,資料輸入或臨床推理可能較不準確,也可能無法存取線上病人門戶或記錄結果。因此,這些患者的記錄可能存在缺漏或錯誤資料。驅動機器學習的演算法可能因此排除貧困和少數族裔患者的資料,影響所需的照護。
好消息是,過去幾年來,對醫療演算法偏見的認識已經提高。資料輸入和結果正被檢查是否存在種族、族裔、收入、性別和年齡偏見。美國的醫學專科協會也開始認識到種族醫學帶來的傷害,並朝著終止在臨床演算法中考慮種族的方向努力。當差異被識別出來,演算法和資料集也能被修正,以追求更客觀。
什麼是演算法?
目前沒有統一的法律或科學定義,但美國國家標準與技術研究院(NIST)將其描述為「一個明確規定的數學計算過程;一套規則,遵循後會得到預定的結果。」
演算法的範例是什麼?
廣義來說,演算法就是一個逐步解答問題或達成目標的流程。例如,一個蛋糕食譜就是一種演算法。在金融界,自動交易系統也是一個例子。
什麼是機器學習?
IBM作為該領域的先驅,將機器學習定義為「人工智慧(AI)的一個子集,專注於能‘學習’訓練資料中的模式,並隨後對新資料做出準確推論的演算法。」
底線
儘管看起來客觀冷峻,醫療專業人員用來做出某些決策的演算法,可能會受到種族、階級和其他因素的偏見影響。因此,不能僅憑信任演算法,而應進行嚴格分析。正如《麻省理工科技評論》2021年所指出:「不論‘演算法’的定義為何,它都不應成為免責的藥方,讓設計和部署系統的人免於對其使用後果負責。」