研究顯示 ChatGPT Health 常常漏掉關鍵的緊急指導

robot
摘要生成中

(MENAFN)一項最新研究發現,ChatGPT Health 這款由人工智慧驅動的指導工具,每天被約 4000 萬人使用,在醫生評估的多數嚴重醫療情況中,未能引導用戶前往急診。

研究人員設計了 60 個結構化臨床案例,涵蓋 21 個醫學專科,範圍從適合在家照護的輕微疾病到危及生命的緊急情況。三位獨立醫生根據 56 個醫學協會的指南,判定每個案例的適當緊急程度。

每個情境在 16 種不同的背景變化下進行測試,總共與 ChatGPT Health 進行了 960 次互動。該研究於週一在《自然醫學》刊登,揭示了幾個令人擔憂的模式。

儘管該工具在明顯的緊急情況下表現尚可,但在超過一半的案例中,醫生判定為需要緊急照護的情況下,ChatGPT Health 卻低估了緊急程度。Mount Sinai 的艾肯醫學院研究人員指出一個特別令人擔憂的趨勢:ChatGPT Health 在解釋中經常承認危險症狀,但仍然安慰用戶,而非建議立即就醫。

該研究還指出該工具在自殺危機防範方面存在重大缺陷。儘管系統被設計成將高風險用戶轉介至自殺與危機熱線,但警示訊號並不一致——有時在低風險情況下觸發,有時在用戶描述具體自殘計畫時卻未出現警示。

「雖然我們預期會有一些變異,但我們觀察到的情況超出了不一致的範圍,」研究資深作者 Girish N. Nadkarni 表示。

查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 留言
  • 轉發
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate App
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)