(MENAFN) Недавнє дослідження виявило, що ChatGPT Health, інструмент на основі штучного інтелекту, яким користуються приблизно 40 мільйонів людей щодня, не спрямовував користувачів до екстреної допомоги у більш ніж половині серйозних медичних випадків, оцінених лікарями.
Дослідники створили 60 структурованих клінічних випадків, що охоплюють 21 медичну спеціальність, від незначних захворювань, придатних для домашнього лікування, до життє-threatening emergency. Три незалежні лікарі визначили відповідний рівень терміновості для кожного випадку на основі керівних принципів 56 медичних товариств.
Кожен сценарій був протестований у 16 різних контекстуальних варіаціях, що дало 960 взаємодій з ChatGPT Health. Дослідження, опубліковане у понеділок у журналу Nature Medicine, виявило кілька тривожних закономірностей.
Хоча інструмент досить добре справлявся з очевидними надзвичайними ситуаціями, він недооцінював понад половину випадків, які лікарі визначили як потребуючі невідкладної допомоги. Дослідники з Медичної школи імені Ікана в Маунт-Сінай зазначили особливо тривожну тенденцію: ChatGPT Health часто визнавав небезпечні симптоми у своїх поясненнях, але все одно заспокоював користувача замість того, щоб рекомендувати негайне медичне втручання.
Дослідження також виявило суттєві недоліки у системі запобігання самогубствам. Хоча система запрограмована перенаправляти користувачів із високим ризиком до Лінії життя при самогубствах і кризах, сповіщення були непослідовними — іноді спрацьовували у ситуаціях з низьким ризиком і не з’являлися, коли користувачі описували конкретні плани самопошкодження.
“Хоча ми очікували деяку варіативність, те, що ми спостерігали, виходило за межі простої непослідовності,” — сказав старший автор дослідження Гіріш Н. Надкарні.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Дослідження показує, що ChatGPT Health часто пропускає важливі рекомендації щодо надзвичайних ситуацій
(MENAFN) Недавнє дослідження виявило, що ChatGPT Health, інструмент на основі штучного інтелекту, яким користуються приблизно 40 мільйонів людей щодня, не спрямовував користувачів до екстреної допомоги у більш ніж половині серйозних медичних випадків, оцінених лікарями.
Дослідники створили 60 структурованих клінічних випадків, що охоплюють 21 медичну спеціальність, від незначних захворювань, придатних для домашнього лікування, до життє-threatening emergency. Три незалежні лікарі визначили відповідний рівень терміновості для кожного випадку на основі керівних принципів 56 медичних товариств.
Кожен сценарій був протестований у 16 різних контекстуальних варіаціях, що дало 960 взаємодій з ChatGPT Health. Дослідження, опубліковане у понеділок у журналу Nature Medicine, виявило кілька тривожних закономірностей.
Хоча інструмент досить добре справлявся з очевидними надзвичайними ситуаціями, він недооцінював понад половину випадків, які лікарі визначили як потребуючі невідкладної допомоги. Дослідники з Медичної школи імені Ікана в Маунт-Сінай зазначили особливо тривожну тенденцію: ChatGPT Health часто визнавав небезпечні симптоми у своїх поясненнях, але все одно заспокоював користувача замість того, щоб рекомендувати негайне медичне втручання.
Дослідження також виявило суттєві недоліки у системі запобігання самогубствам. Хоча система запрограмована перенаправляти користувачів із високим ризиком до Лінії життя при самогубствах і кризах, сповіщення були непослідовними — іноді спрацьовували у ситуаціях з низьким ризиком і не з’являлися, коли користувачі описували конкретні плани самопошкодження.
“Хоча ми очікували деяку варіативність, те, що ми спостерігали, виходило за межі простої непослідовності,” — сказав старший автор дослідження Гіріш Н. Надкарні.