طبقة الحكم: لماذا الذكاء الاصطناعي لا يكون ذكيًا حتى يكون القادة أذكى

غيليورمو ديلغادو أباريسيو هو القائد العالمي للذكاء الاصطناعي في Nisum.


اكتشف أهم أخبار وفعاليات التكنولوجيا المالية!

اشترك في النشرة الإخبارية لـ FinTech Weekly

يقرأها التنفيذيون في JP Morgan، Coinbase، Blackrock، Klarna وغيرهم


يمتد الذكاء الاصطناعي في التكنولوجيا المالية عبر مجموعة من الاستخدامات، من كشف الاحتيال والتداول الخوارزمي إلى تقييم الائتمان الديناميكي وتوصيات المنتجات الشخصية. ومع ذلك، وجدت تقرير هيئة السلوك المالي أن من بين 75% من الشركات التي تستخدم الذكاء الاصطناعي، فقط 34% تعرف كيف يعمل.

المشكلة ليست فقط نقص الوعي. إنها فهم عميق خاطئ لقوة ونطاق تحليلات البيانات، وهو المجال الذي ينبثق منه الذكاء الاصطناعي. لقد جلب الاعتماد الجماعي على أدوات الذكاء الاصطناعي التوليدية هذا الموضوع إلى مستوى الإدارة العليا. لكن العديد من من يختارون كيفية تنفيذ الذكاء الاصطناعي لا يفهمون المبادئ الأساسية للحساب، والإحصاء، والخوارزميات المتقدمة.

خذ قانون بنفورد، مبدأ إحصائي بسيط يكتشف الاحتيال من خلال رصد أنماط في الأرقام. يبني الذكاء الاصطناعي على نفس نوع الرياضيات، ولكن على نطاق ملايين المعاملات في وقت واحد. إذا أزلت الضجيج، فإن الأساس لا يزال إحصائيات وخوارزميات.

لهذا السبب، تعتبر معرفة الذكاء الاصطناعي على مستوى الإدارة العليا مهمة. القادة الذين لا يستطيعون التمييز بين نهاية التحليلات ونهاية الذكاء الاصطناعي يواجهون خطر الاعتماد المفرط على أنظمة لا يفهمونها أو التقليل من استخدامها خوفًا. وتُظهر التاريخ ما يحدث عندما يسيء صانعو القرار فهم التكنولوجيا: حاولت الجهات التنظيمية سابقًا حظر المكالمات الدولية عبر الإنترنت، فقط لمشاهدة تفوق التكنولوجيا على القواعد. نفس الديناميكية تتكرر مع الذكاء الاصطناعي. لا يمكنك حظره أو اعتماده بشكل أعمى؛ بل تحتاج إلى الحكمة، والسياق، والقدرة على توجيهه بمسؤولية.

يجب على قادة التكنولوجيا المالية سد هذه الفجوات لاستخدام الذكاء الاصطناعي بمسؤولية وفعالية. وهذا يعني فهم أين تنتهي التحليلات وأين يبدأ الذكاء الاصطناعي، وبناء المهارات لتوجيه هذه الأنظمة، وتطبيق الحكم السليم لتحديد متى وكيف تثق في مخرجاتها.

حدود، نقاط عمياء، وأوهام الذكاء الاصطناعي

تحلل التحليلات البيانات الماضية والحالية لشرح ما حدث ولماذا. ينمو الذكاء الاصطناعي من هذا الأساس، باستخدام تحليلات متقدمة للتنبؤ بما سيحدث بعد ذلك، وبتزايد، لاتخاذ القرارات أو التصرف تلقائيًا.

مع قدراته الاستثنائية في معالجة البيانات، من السهل أن يرى قادة التكنولوجيا المالية أن الذكاء الاصطناعي هو الحل السحري. لكنه لا يمكنه حل كل مشكلة. لا يزال للبشر ميزة فطرية في التعرف على الأنماط، خاصة عندما تكون البيانات غير مكتملة أو “مشوشة”. قد يواجه الذكاء الاصطناعي صعوبة في تفسير الفروق السياقية التي يمكن للبشر فهمها بسرعة.

ومع ذلك، من الخطأ الاعتقاد أن البيانات غير المثالية تجعل الذكاء الاصطناعي عديم الفائدة. يمكن لنماذج التحليل العمل مع بيانات غير مكتملة. لكن التحدي الحقيقي هو معرفة متى تستخدم الذكاء الاصطناعي ومتى تعتمد على الحكم البشري لملء الفجوات. بدون هذا الإشراف الدقيق، يمكن أن يُدخل الذكاء الاصطناعي مخاطر كبيرة.

إحدى هذه المشكلات هي التحيز. عندما تدرب الشركات المالية على مجموعات بيانات قديمة، غالبًا ما ترث الأعباء المرتبطة بها. على سبيل المثال، قد يُستخدم اسم العميل بشكل غير مقصود كمؤشر للجنس، أو يُستنتج من اسم العائلة مؤشرات عن العرق، مما يوجه درجات الائتمان بطرق لا يوافق عليها أي تنظيم. هذه التحيزات، التي تكون مخفية بسهولة في الرياضيات، غالبًا ما تتطلب إشرافًا بشريًا للكشف عنها وتصحيحها.

عندما تتعرض نماذج الذكاء الاصطناعي لمواقف لم تتدرب عليها، يمكن أن يتسبب ذلك في انحراف النموذج. يمكن أن تؤثر تقلبات السوق، والتغييرات التنظيمية، وتغير سلوك العملاء، والتحولات الاقتصادية الكلية على فعالية النموذج بدون مراقبة وإعادة ضبط بشرية.

تزداد صعوبة إعادة معايرة الخوارزميات بشكل حاد عندما تستخدم الشركات المالية “صناديق سوداء” لا تسمح برؤية العلاقة بين المتغيرات. في ظل هذه الظروف، يفقدون القدرة على نقل تلك المعرفة إلى صانعي القرار في الإدارة. بالإضافة إلى ذلك، تظل الأخطاء والتحيزات مخفية في النماذج غير الشفافة، مما يقوض الثقة والامتثال.

ما يحتاج قادة التكنولوجيا المالية إلى معرفته

وجد استطلاع Deloitte أن 80% منهم يقولون إن مجالس إدارتهم تفتقر إلى الخبرة في الذكاء الاصطناعي. لكن لا يمكن للمديرين التنفيذيين في الإدارة العليا أن يتعاملوا مع الذكاء الاصطناعي كمشكلة تقنية فقط. فالمساءلة عن الذكاء الاصطناعي تقع على عاتق القيادة، مما يتطلب من قادة التكنولوجيا المالية تطوير مهاراتهم.

الطلاقة عبر التحليلات

قبل تطبيق الذكاء الاصطناعي، يحتاج القادة إلى القدرة على التبديل بين الأدوار—مراجعة الأرقام، الحالة التجارية، العمليات، والأخلاقيات—ورؤية كيف تتداخل هذه العوامل وتشكل نتائج الذكاء الاصطناعي. يجب أن يفهموا كيف ترتبط دقة النموذج الإحصائية بمخاطر الائتمان. وأن يدركوا متى قد يُدخل متغير يبدو ماليًا سليمًا (مثل سجل السداد) مخاطر اجتماعية أو تنظيمية من خلال ارتباطه بفئة محمية، مثل العمر أو العرق.

تأتي هذه الطلاقة في فهم الذكاء الاصطناعي من الجلوس مع مسؤولي الامتثال لفهم اللوائح، والتحدث مع مديري المنتجات حول تجربة المستخدم، ومراجعة نتائج النماذج مع علماء البيانات للكشف عن علامات الانحراف أو التحيز.

في التكنولوجيا المالية، لا يمكن تجنب المخاطر بنسبة 100%، لكن مع الطلاقة التحليلية، يمكن للقادة تحديد المخاطر التي تستحق المخاطرة وتلك التي ستقوض قيمة المساهمين. كما تعزز هذه المهارة قدرة القائد على اكتشاف والتحرك ضد التحيز، ليس فقط من منظور الامتثال، بل من منظور استراتيجي وأخلاقي.

على سبيل المثال، إذا كان نموذج تقييم الائتمان المدفوع بالذكاء الاصطناعي يميل بشكل كبير نحو مجموعة معينة من العملاء، فإن تصحيح هذا الاختلال ليس مجرد مهمة علم بيانات؛ بل يحمي سمعة الشركة. بالنسبة للشركات المالية التي تلتزم بالشمول المالي أو تواجه تدقيقًا من قبل معايير ESG، فإن الامتثال القانوني وحده لا يكفي. فالحكم يعني معرفة ما هو صحيح، وليس فقط ما هو مسموح.

محو الأمية في الشرح

الشفافية هي أساس الثقة. بدونها، يظل صانعو القرار والعملاء والمنظمون يتساءلون عن سبب وصول النموذج إلى استنتاج معين.

هذا يعني أن التنفيذيين يجب أن يكونوا قادرين على التمييز بين النماذج التي يمكن تفسيرها وتلك التي تحتاج إلى تفسيرات لاحقة (مثل قيم SHAP أو LIME). ويجب أن يطرحوا أسئلة عندما يكون من غير الواضح منطق النموذج، وأن يدركوا أن “الدقة” وحدها لا تبرر قرار الصندوق الأسود.

لا يظهر التحيز من فراغ؛ بل يظهر عندما يتم تدريب النماذج ونشرها بدون إشراف كافٍ. توفر الشفافية رؤية تمكن القادة من اكتشاف تلك المشكلات مبكرًا والتصرف قبل أن تتسبب في ضرر.

الذكاء الاصطناعي يشبه الطيار الآلي في الطائرة. في معظم الأوقات، يعمل بسلاسة، ولكن عندما تضرب عاصفة، يتعين على الطيار أن يتولى السيطرة. في التمويل، ينطبق نفس المبدأ. تحتاج الفرق إلى القدرة على إيقاف التداول، وتعديل استراتيجية، أو حتى سحب منتج من السوق عندما تتغير الظروف. تعمل الشفافية جنبًا إلى جنب مع جاهزية التدخل، التي تضمن أن يفهم قادة الإدارة العليا الذكاء الاصطناعي ويظلوا مسيطرين، حتى عند العمل على نطاق واسع.

التفكير في النماذج الاحتمالية

يعتاد التنفيذيون على القرارات الحتمية، مثل إذا كان درجة الائتمان أقل من 650، يتم رفض الطلب. لكن الذكاء الاصطناعي لا يعمل بهذه الطريقة، وهذا يمثل تحولًا كبيرًا في النموذج العقلي.

بالنسبة للقادة، يتطلب التفكير الاحتمالي ثلاث قدرات:

  • تفسير نطاقات المخاطر بدلاً من نتائج نعم/لا ثنائية.
  • تقييم مستوى الثقة في التنبؤ مقابل اعتبارات تجارية أو تنظيمية أخرى.
  • معرفة متى يجب تجاوز الأتمتة وتطبيق الحكمة البشرية.

على سبيل المثال، قد يُصنف نموذج الذكاء الاصطناعي التابع لشركة تكنولوجيا مالية عميلًا على أنه عالي المخاطر، لكن ذلك لا يعني بالضرورة “رفض”. قد يعني “التحقيق أكثر” أو “تعديل شروط القرض”. بدون هذا الفهم الدقيق، قد يتحول الأتمتة إلى أداة خشنة، مما يقلل من ثقة العملاء ويعرض الشركات لردود فعل تنظيمية.

لماذا ستحدد طبقة الحكم الفائزين في التكنولوجيا المالية

لن يُحدد مستقبل التكنولوجيا المالية من قبل من يمتلك أقوى نماذج الذكاء الاصطناعي، بل من يستخدمها بحكمة أكثر. مع تسييس الذكاء الاصطناعي، تصبح مكاسب الكفاءة أمرًا أساسيًا. ما يميز الفائزين هو القدرة على التدخل عندما تواجه الخوارزميات عدم اليقين، والمخاطر، والمناطق الرمادية الأخلاقية.

طبقة الحكم ليست فكرة مجردة. تظهر عندما يقرر التنفيذيون إيقاف التداول الآلي، أو تأخير إطلاق منتج، أو تجاوز درجة مخاطر لا تعكس السياق الحقيقي. هذه اللحظات ليست فشلًا في الذكاء الاصطناعي؛ بل دليل على أن الإشراف البشري هو الخط النهائي لإضافة القيمة.

التوافق الاستراتيجي هو المكان الذي يتم فيه ترسيخ الحكم. لا يقتصر استراتيجية الذكاء الاصطناعي القوية على وضع خرائط طريق تقنية فقط؛ بل تضمن أن تعيد المؤسسة النظر في المبادرات، وترقي قدرات الفرق في الذكاء الاصطناعي، وتضمن وجود بنية بيانات مناسبة، وتربط كل عملية نشر بهدف تجاري واضح. من هذا المنطلق، فإن الحكم ليس حدثًا عارضًا، بل جزء من نمط التشغيل، ويسمح للقادة بقيادة نهج قيادي قائم على القيمة.

تحتاج الشركات المالية إلى قادة يعرفون كيف يوازنوا بين الذكاء الاصطناعي للسرعة والنطاق والبشر للسياق، والفروق الدقيقة، والرؤية طويلة المدى. يمكن للذكاء الاصطناعي اكتشاف الشذوذ في ثوانٍ، لكن فقط البشر يمكنهم تحديد متى يجب مقاومة الحساب، وإعادة التفكير في الافتراضات، أو اتخاذ مخاطرة جريئة تفتح أبواب النمو. تلك الطبقة من الحكم هي ما يحول الذكاء الاصطناعي من أداة إلى ميزة تنافسية.

عن الكاتب:

غيليورمو ديلغادو هو القائد العالمي للذكاء الاصطناعي في Nisum والرئيس التنفيذي لشركة Deep Space Biology. بخبرة تزيد عن 25 عامًا في الكيمياء الحيوية، والذكاء الاصطناعي، وعلوم الفضاء، وريادة الأعمال، يطور حلولًا مبتكرة لرفاهية الإنسان على الأرض وفي الفضاء.

كمستشار استراتيجي للشركات، ساهم في رؤية ناسا للذكاء الاصطناعي في علم الأحياء الفضائي وحصل على جوائز ابتكار. يحمل ماجستير في العلوم في الذكاء الاصطناعي من Georgia Tech، حصل عليه مع مرتبة الشرف. بالإضافة إلى ذلك، كأستاذ جامعي، قام بتدريس دورات في التعلم الآلي، والبيانات الضخمة، والعلوم الجينومية.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • Gate Fun الساخن

    عرض المزيد
  • القيمة السوقية:$2.5Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.51Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$0.1عدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.5Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.52Kعدد الحائزين:2
    0.00%
  • تثبيت