研究显示,ChatGPT Health 常常遗漏关键的紧急指导

robot
摘要生成中

(MENAFN)一项最新研究发现,AI驱动的指导工具ChatGPT Health,每天被大约4000万人使用,在医生评估的严重医疗场景中,未能在超过一半的情况下引导用户前往急诊护理。

研究人员设计了60个结构化临床案例,涵盖21个医学专业领域,从适合家庭护理的轻微疾病到危及生命的紧急情况。三位独立的医生根据56个医学学会的指南,确定每个案例的适当紧急程度。

每个场景在16种不同的情境变化下进行了测试,共进行了960次与ChatGPT Health的互动。该研究于周一在《自然医学》上发表,揭示了几个令人担忧的模式。

虽然该工具在明显的紧急情况下表现尚可,但在超过一半的被医生判定需要紧急护理的案例中,未能正确评估优先级。西奈山伊坎医学院的研究人员指出一个特别令人担忧的趋势:ChatGPT Health在解释中经常承认危险症状,但仍然安慰用户,而不是建议立即就医。

该研究还指出该工具在自杀危机防护方面存在重大缺陷。虽然系统被编程为将高风险用户转介至自杀与危机生命线,但警报触发不一致——有时在低风险情况下触发,有时在用户描述具体自残计划时未能发出警报。

“虽然我们预期会有一些变异,但我们观察到的情况超出了不一致的范围,”研究高级作者Girish N. Nadkarni表示。

MENAFN25022026000045017640ID1110786236

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
0/400
暂无评论
交易,随时随地
qrCode
扫码下载 Gate App
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский язык
  • Français
  • Deutsch
  • Português (Portugal)
  • ภาษาไทย
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)