Gate 廣場|2/27 今日話題: #BTC能否重返7万美元?
🎁 帶話題發帖,抽 5 位幸運兒送出 $2,500 仓位體驗券!
Jane Street 被起訴後,持續多日的“10 點砸盤”疑似消失。BTC 目前在 $67,000 附近震盪,這波反彈能否順勢衝回 $70,000?
💬 本期熱議:
1️⃣ 你認為訴訟與“10 點拋壓”消失有關嗎?市場操縱阻力是否減弱?
2️⃣ 衝擊 $70K 的關鍵壓力區在哪?
3️⃣ 你會在當前價位分批布局,還是等待放量突破再進場?
分享觀點,瓜分好禮 👉️ https://www.gate.com/post
📅 2/27 16:00 - 3/1 12:00 (UTC+8)
判決層:為什麼人工智慧在領導者更聰明之前並不真正聰明
_Guillermo Delgado Aparicio 是 Nisum 的全球人工智慧領導者。
探索頂尖金融科技新聞與活動!
訂閱金融科技週刊的電子報
由摩根大通、Coinbase、貝萊德、Klarna 等高層閱讀
金融科技中的人工智慧涵蓋範圍廣泛,從欺詐偵測與算法交易到動態信用評分與個人化產品推薦。然而,一份金融行為監管局的報告指出,在使用人工智慧的企業中,75%的人使用AI,但只有34%的人了解其運作原理。
問題不僅在於缺乏認識,而是對數據分析的力量與範疇存在深刻誤解,這正是AI的源頭。生成式AI工具的普及已將此議題帶到高層管理層。但許多決策者在實施AI時,並不理解其背後的微積分、統計學與高階算法原理。
以本福德定律為例,這是一個簡單的統計原則,用來通過識別數字中的模式來偵測欺詐。AI建立在相同的數學基礎上,只是規模擴展到數百萬筆交易。撇除炒作,基礎仍是統計學與算法。
這也是為何高層管理者的AI素養如此重要。無法區分分析何時結束的領導者,可能會過度信任自己不理解的系統,或因恐懼而低估其潛力。歷史告訴我們,當決策者誤讀科技時會發生什麼:監管機構曾試圖禁止國際IP通話,結果卻見技術超越了規則。AI的情況亦是如此。你不能封鎖或盲目採用它;需要判斷力、情境理解與負責任的引導能力。
金融科技領導者必須彌合這些差距,以負責任且有效地運用AI。這意味著理解分析何時結束、AI何時開始,建立引導這些系統的技能,以及運用明智判斷來決定何時何地信任其輸出。
AI的限制、盲點與幻象
分析利用過去與現在的數據來解釋發生了什麼以及為何如此。AI則在此基礎上,運用先進分析預測未來,並逐漸自動做出決策或行動。
憑藉其卓越的數據處理能力,金融科技領導者很容易將AI視為魔法子彈。但它並非萬能。人類在模式識別方面仍具有天生優勢,尤其在資料不完整或“髒”時。AI可能難以理解人類能迅速掌握的語境細微差別。
然而,認為不完美的資料使AI無用,是一個錯誤。分析模型可以在資料不完整的情況下運作。但知道何時部署AI、何時依賴人類判斷來填補空缺,才是真正的挑戰。若缺乏這種謹慎監督,AI可能帶來重大風險。
其中一個問題是偏見。當金融科技用舊資料訓練AI時,往往會帶入資料本身的偏差。例如,客戶的名字可能無意中成為性別的代理指標,或姓氏暗示族裔,從而影響信用評分,這是監管機構絕不會批准的。這些偏見,藏在數學中,常需人類監督來發現與修正。
當AI模型遇到未經訓練的情境時,可能導致模型漂移。市場波動、監管變化、客戶行為演變與宏觀經濟轉變,都可能影響模型的效能,若缺乏人類監控與重新校準。
在使用黑箱模型(無法觀察變數間關係)時,重新校準的難度會大幅提升。在這種情況下,企業失去將知識傳遞給管理層決策者的可能性。此外,不透明模型中的錯誤與偏見難以察覺,削弱信任與合規性。
金融科技領導者需要了解的事
德勤調查顯示,80%的公司董事會幾乎沒有AI經驗。但高層管理者不能將AI視為“技術團隊的問題”。AI的責任在於領導層,因此金融科技領導者必須提升相關技能。
跨分析能力
在推行AI之前,金融科技領導者必須能夠切換視角——從數字、商業案例、運營到倫理——並理解這些因素如何交織影響AI結果。他們需要理解模型的統計準確性如何關聯到信用風險暴露,並辨識當一個看似合理的變數(如還款歷史)可能因與受保護族群(如年齡或族裔)相關而引入社會或監管風險。
這種AI素養來自與合規人員討論規範、與產品經理探討用戶體驗,以及與資料科學家審查模型結果,以捕捉漂移或偏見的跡象。
在金融科技中,100%的風險避免是不可能的,但具備跨分析能力,領導者能辨識值得承擔的風險與可能侵蝕股東價值的風險。這項技能也能幫助領導者從策略與倫理角度,識別並行動於偏見問題。
例如,若一個AI信用評分模型偏向某一客戶群,修正這種偏差不僅是資料科學的任務,更是保護公司聲譽的行動。對於追求金融包容或面臨ESG審查的金融科技公司來說,僅符合法律規範是不夠的。判斷力意味著知道什麼是正確的,而不僅僅是允許的。
可解釋性素養
可解釋性是建立信任的基礎。沒有它,決策者、客戶與監管者都會質疑模型為何得出特定結論。
這要求高層能區分可解釋模型與需要事後解釋(如SHAP值或LIME)的模型。他們必須在模型邏輯不清楚時提出疑問,並認識到“準確性”單獨不足以證明黑箱決策的合理性。
偏見並非無中生有;它在模型訓練與部署時若缺乏充分監督就會產生。可解釋性讓領導者能早期察覺這些問題,並在造成損害前採取行動。
AI就像飛機的自動駕駛。大多數時間運行順暢,但遇到風暴時,飛行員必須接管。在金融領域亦是如此。團隊需要能在條件變化時停止交易、調整策略或甚至中止產品推出的能力。可解釋性與備用控制能力相輔相成,確保高層理解AI,並在其規模運作時仍能掌控。
概率模型思維
高層習慣做確定性決策,比如信用分低於650就拒絕申請。但AI的運作方式不同,這是一個重大的思維轉變。
對領導者而言,概率思維需要具備三個能力:
例如,一個金融科技的概率AI模型可能將某客戶標記為高風險,但這不一定意味著“拒絕”。可能代表“進一步調查”或“調整貸款條件”。若缺乏這種細緻度,則自動化可能變成一把鈍刀,侵蝕客戶信任,並引來監管風險。
為何判斷層將決定金融科技的勝負
未來的金融科技不會由最強大的AI模型決定,而是由能用它們展現最銳利判斷力的人來贏得。隨著AI商品化,效率提升已成為基本條件。真正的贏家在於,當算法遇到不確定性、風險與倫理灰區時,能夠果斷介入。
判斷層不是抽象概念。它體現在高層決定暫停自動交易、延遲產品上市或覆蓋不符合實際情況的風險評分時。這些都不是AI失誤,而是證明人類監督是價值創造的最後一道防線。
策略性的一致性使判斷成為制度化。強大的AI策略不僅制定技術路線圖,更確保組織定期檢視計畫、升級團隊AI能力、建立必要的資料架構,並將每次部署與明確的商業目標連結。在這個意義上,判斷不是偶發事件,而是融入運作模式,讓高層能以價值為導向進行領導。
金融科技需要能在速度與規模上運用AI,同時由人類掌握情境、細微差別與長遠願景的領導者。AI能在秒內偵測異常,但只有人能決定何時反駁數學、重新思考假設,或冒險開拓成長之門。這層判斷,才是將AI從工具轉化為競爭優勢的關鍵。
關於作者:
Guillermo Delgado 是 Nisum 的全球人工智慧領導者兼 Deep Space Biology 的首席營運官。擁有超過25年的生物化學、人工智慧、太空生物學與創業經驗,他致力於開發促進地球與太空人類福祉的創新解決方案。
作為企業策略顧問,他曾參與NASA的太空生物學AI願景,並獲得多項創新獎。他擁有喬治亞理工學院的人工智慧碩士學位,並以優異成績取得。此外,他也曾擔任大學教授,教授機器學習、大數據與基因科學等課程。