(MENAFN) أظهرت دراسة حديثة أن أداة التوجيه المدعومة بالذكاء الاصطناعي ChatGPT Health، التي يستخدمها حوالي 40 مليون شخص يوميًا، فشلت في توجيه المستخدمين إلى الرعاية الطارئة في أكثر من نصف الحالات الطبية الخطيرة التي قيمها الأطباء.
صمم الباحثون 60 حالة سريرية منظمة تغطي 21 تخصصًا طبيًا، تتراوح بين أمراض بسيطة مناسبة للعناية المنزلية إلى حالات طارئة تهدد الحياة. حدد ثلاثة أطباء مستقلين مستوى الطوارئ المناسب لكل حالة استنادًا إلى إرشادات من 56 جمعية طبية.
تم اختبار كل سيناريو تحت 16 تباينًا سياقيًا مختلفًا، مما أسفر عن 960 تفاعلًا مع ChatGPT Health. وكشفت الدراسة، التي نُشرت يوم الاثنين في مجلة نيتشر ميديسن، عن أنماط مقلقة متعددة.
بينما أدت الأداة بشكل جيد نسبيًا في الحالات الطارئة الواضحة، إلا أنها كانت تقلل من مستوى الطوارئ في أكثر من نصف الحالات التي حددها الأطباء على أنها تتطلب رعاية عاجلة. وأشار الباحثون في كلية الطب آيكان في جبل سيناي إلى اتجاه مقلق بشكل خاص: غالبًا ما اعترف ChatGPT Health بأعراض خطيرة في تفسيراتها، لكنه استمر في طمأنة المستخدم بدلاً من التوصية بالحصول على علاج طبي فوري.
كما أظهرت الدراسة نقصًا كبيرًا في آليات الحماية من الأزمات الانتحارية في الأداة. على الرغم من برمجتها لإحالة المستخدمين عاليي المخاطر إلى خط حياة الانتحار والأزمات، كانت التنبيهات غير متسقة — حيث تظهر أحيانًا في حالات منخفضة الخطورة وتفشل في الظهور عندما يصف المستخدم خططًا محددة لإيذاء نفسه.
قال المؤلف الرئيسي للدراسة جيريش ن. نادكارني: “بينما توقعنا بعض التباين، إلا أن ما لاحظناه تجاوز عدم الاتساق.”
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
تظهر دراسة أن صحة ChatGPT غالبًا ما تفشل في تقديم إرشادات طارئة حاسمة
(MENAFN) أظهرت دراسة حديثة أن أداة التوجيه المدعومة بالذكاء الاصطناعي ChatGPT Health، التي يستخدمها حوالي 40 مليون شخص يوميًا، فشلت في توجيه المستخدمين إلى الرعاية الطارئة في أكثر من نصف الحالات الطبية الخطيرة التي قيمها الأطباء.
صمم الباحثون 60 حالة سريرية منظمة تغطي 21 تخصصًا طبيًا، تتراوح بين أمراض بسيطة مناسبة للعناية المنزلية إلى حالات طارئة تهدد الحياة. حدد ثلاثة أطباء مستقلين مستوى الطوارئ المناسب لكل حالة استنادًا إلى إرشادات من 56 جمعية طبية.
تم اختبار كل سيناريو تحت 16 تباينًا سياقيًا مختلفًا، مما أسفر عن 960 تفاعلًا مع ChatGPT Health. وكشفت الدراسة، التي نُشرت يوم الاثنين في مجلة نيتشر ميديسن، عن أنماط مقلقة متعددة.
بينما أدت الأداة بشكل جيد نسبيًا في الحالات الطارئة الواضحة، إلا أنها كانت تقلل من مستوى الطوارئ في أكثر من نصف الحالات التي حددها الأطباء على أنها تتطلب رعاية عاجلة. وأشار الباحثون في كلية الطب آيكان في جبل سيناي إلى اتجاه مقلق بشكل خاص: غالبًا ما اعترف ChatGPT Health بأعراض خطيرة في تفسيراتها، لكنه استمر في طمأنة المستخدم بدلاً من التوصية بالحصول على علاج طبي فوري.
كما أظهرت الدراسة نقصًا كبيرًا في آليات الحماية من الأزمات الانتحارية في الأداة. على الرغم من برمجتها لإحالة المستخدمين عاليي المخاطر إلى خط حياة الانتحار والأزمات، كانت التنبيهات غير متسقة — حيث تظهر أحيانًا في حالات منخفضة الخطورة وتفشل في الظهور عندما يصف المستخدم خططًا محددة لإيذاء نفسه.
قال المؤلف الرئيسي للدراسة جيريش ن. نادكارني: “بينما توقعنا بعض التباين، إلا أن ما لاحظناه تجاوز عدم الاتساق.”