判決層:為什麼人工智慧在領導者更聰明之前並不真正聰明

_Guillermo Delgado Aparicio 是 Nisum 的全球人工智慧領導者。


探索頂尖金融科技新聞與活動!

訂閱金融科技週刊的電子報

由摩根大通、Coinbase、貝萊德、Klarna 等高層閱讀


金融科技中的人工智慧涵蓋範圍廣泛,從欺詐偵測與算法交易到動態信用評分與個人化產品推薦。然而,一份金融行為監管局的報告指出,在使用人工智慧的企業中,75%的人使用AI,但只有34%的人了解其運作原理。

問題不僅在於缺乏認識,而是對數據分析的力量與範疇存在深刻誤解,這正是AI的源頭。生成式AI工具的普及已將此議題帶到高層管理層。但許多決策者在實施AI時,並不理解其背後的微積分、統計學與高階算法原理。

以本福德定律為例,這是一個簡單的統計原則,用來通過識別數字中的模式來偵測欺詐。AI建立在相同的數學基礎上,只是規模擴展到數百萬筆交易。撇除炒作,基礎仍是統計學與算法。

這也是為何高層管理者的AI素養如此重要。無法區分分析何時結束的領導者,可能會過度信任自己不理解的系統,或因恐懼而低估其潛力。歷史告訴我們,當決策者誤讀科技時會發生什麼:監管機構曾試圖禁止國際IP通話,結果卻見技術超越了規則。AI的情況亦是如此。你不能封鎖或盲目採用它;需要判斷力、情境理解與負責任的引導能力。

金融科技領導者必須彌合這些差距,以負責任且有效地運用AI。這意味著理解分析何時結束、AI何時開始,建立引導這些系統的技能,以及運用明智判斷來決定何時何地信任其輸出。

AI的限制、盲點與幻象

分析利用過去與現在的數據來解釋發生了什麼以及為何如此。AI則在此基礎上,運用先進分析預測未來,並逐漸自動做出決策或行動。

憑藉其卓越的數據處理能力,金融科技領導者很容易將AI視為魔法子彈。但它並非萬能。人類在模式識別方面仍具有天生優勢,尤其在資料不完整或“髒”時。AI可能難以理解人類能迅速掌握的語境細微差別。

然而,認為不完美的資料使AI無用,是一個錯誤。分析模型可以在資料不完整的情況下運作。但知道何時部署AI、何時依賴人類判斷來填補空缺,才是真正的挑戰。若缺乏這種謹慎監督,AI可能帶來重大風險。

其中一個問題是偏見。當金融科技用舊資料訓練AI時,往往會帶入資料本身的偏差。例如,客戶的名字可能無意中成為性別的代理指標,或姓氏暗示族裔,從而影響信用評分,這是監管機構絕不會批准的。這些偏見,藏在數學中,常需人類監督來發現與修正。

當AI模型遇到未經訓練的情境時,可能導致模型漂移。市場波動、監管變化、客戶行為演變與宏觀經濟轉變,都可能影響模型的效能,若缺乏人類監控與重新校準。

在使用黑箱模型(無法觀察變數間關係)時,重新校準的難度會大幅提升。在這種情況下,企業失去將知識傳遞給管理層決策者的可能性。此外,不透明模型中的錯誤與偏見難以察覺,削弱信任與合規性。

金融科技領導者需要了解的事

德勤調查顯示,80%的公司董事會幾乎沒有AI經驗。但高層管理者不能將AI視為“技術團隊的問題”。AI的責任在於領導層,因此金融科技領導者必須提升相關技能。

跨分析能力

在推行AI之前,金融科技領導者必須能夠切換視角——從數字、商業案例、運營到倫理——並理解這些因素如何交織影響AI結果。他們需要理解模型的統計準確性如何關聯到信用風險暴露,並辨識當一個看似合理的變數(如還款歷史)可能因與受保護族群(如年齡或族裔)相關而引入社會或監管風險。

這種AI素養來自與合規人員討論規範、與產品經理探討用戶體驗,以及與資料科學家審查模型結果,以捕捉漂移或偏見的跡象。

在金融科技中,100%的風險避免是不可能的,但具備跨分析能力,領導者能辨識值得承擔的風險與可能侵蝕股東價值的風險。這項技能也能幫助領導者從策略與倫理角度,識別並行動於偏見問題。

例如,若一個AI信用評分模型偏向某一客戶群,修正這種偏差不僅是資料科學的任務,更是保護公司聲譽的行動。對於追求金融包容或面臨ESG審查的金融科技公司來說,僅符合法律規範是不夠的。判斷力意味著知道什麼是正確的,而不僅僅是允許的。

可解釋性素養

可解釋性是建立信任的基礎。沒有它,決策者、客戶與監管者都會質疑模型為何得出特定結論。

這要求高層能區分可解釋模型與需要事後解釋(如SHAP值或LIME)的模型。他們必須在模型邏輯不清楚時提出疑問,並認識到“準確性”單獨不足以證明黑箱決策的合理性。

偏見並非無中生有;它在模型訓練與部署時若缺乏充分監督就會產生。可解釋性讓領導者能早期察覺這些問題,並在造成損害前採取行動。

AI就像飛機的自動駕駛。大多數時間運行順暢,但遇到風暴時,飛行員必須接管。在金融領域亦是如此。團隊需要能在條件變化時停止交易、調整策略或甚至中止產品推出的能力。可解釋性與備用控制能力相輔相成,確保高層理解AI,並在其規模運作時仍能掌控。

概率模型思維

高層習慣做確定性決策,比如信用分低於650就拒絕申請。但AI的運作方式不同,這是一個重大的思維轉變。

對領導者而言,概率思維需要具備三個能力:

  • 解讀風險範圍,而非二元的是/否結果。
  • 在其他商業或監管考量下,衡量預測的信心程度。
  • 知道何時應該覆蓋自動化,運用人類判斷。

例如,一個金融科技的概率AI模型可能將某客戶標記為高風險,但這不一定意味著“拒絕”。可能代表“進一步調查”或“調整貸款條件”。若缺乏這種細緻度,則自動化可能變成一把鈍刀,侵蝕客戶信任,並引來監管風險。

為何判斷層將決定金融科技的勝負

未來的金融科技不會由最強大的AI模型決定,而是由能用它們展現最銳利判斷力的人來贏得。隨著AI商品化,效率提升已成為基本條件。真正的贏家在於,當算法遇到不確定性、風險與倫理灰區時,能夠果斷介入。

判斷層不是抽象概念。它體現在高層決定暫停自動交易、延遲產品上市或覆蓋不符合實際情況的風險評分時。這些都不是AI失誤,而是證明人類監督是價值創造的最後一道防線。

策略性的一致性使判斷成為制度化。強大的AI策略不僅制定技術路線圖,更確保組織定期檢視計畫、升級團隊AI能力、建立必要的資料架構,並將每次部署與明確的商業目標連結。在這個意義上,判斷不是偶發事件,而是融入運作模式,讓高層能以價值為導向進行領導。

金融科技需要能在速度與規模上運用AI,同時由人類掌握情境、細微差別與長遠願景的領導者。AI能在秒內偵測異常,但只有人能決定何時反駁數學、重新思考假設,或冒險開拓成長之門。這層判斷,才是將AI從工具轉化為競爭優勢的關鍵。

關於作者:

Guillermo Delgado 是 Nisum 的全球人工智慧領導者兼 Deep Space Biology 的首席營運官。擁有超過25年的生物化學、人工智慧、太空生物學與創業經驗,他致力於開發促進地球與太空人類福祉的創新解決方案。

作為企業策略顧問,他曾參與NASA的太空生物學AI願景,並獲得多項創新獎。他擁有喬治亞理工學院的人工智慧碩士學位,並以優異成績取得。此外,他也曾擔任大學教授,教授機器學習、大數據與基因科學等課程。

查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 留言
  • 轉發
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate App
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)