判决层:为什么人工智能在领导者更聪明之前还不算聪明

_Guillermo Delgado Aparicio 是 Nisum 的全球人工智能负责人。


发现顶级金融科技新闻和事件!

订阅金融科技周刊的新闻简报

由摩根大通、Coinbase、黑石、Klarna 等高管阅读


金融科技中的人工智能涵盖了从欺诈检测、算法交易到动态信用评分和个性化产品推荐等多个应用场景。然而,一份金融行为监管局的报告发现,在使用人工智能的企业中,75%的公司中,只有34%了解其工作原理。

问题不仅仅是缺乏认知。更深层次的是对数据分析力量和范围的误解——这是人工智能的源头。生成式人工智能工具的广泛采用已将这一话题带到高管层面。但许多决定如何实施人工智能的人并不理解其背后的微积分、统计学和高级算法原理。

以本福德定律为例,这是一条简单的统计原则,通过识别数字中的模式来检测欺诈。人工智能建立在类似的数学基础之上,只是规模扩大到数百万笔交易。撇开炒作不谈,其基础仍然是统计学和算法。

这就是为什么高层的人工智能素养至关重要。无法区分分析何时结束的领导者,可能会过度信任自己不理解的系统,或因恐惧而低估其潜力。而历史也证明了当决策者误读技术时会发生什么:监管机构曾试图禁止国际IP电话,结果却看到技术超越了规则。人工智能的动态也在如此演变。你不能阻止或盲目采用它;你需要判断力、背景知识以及负责任引导它的能力。

金融科技领导者必须弥合这些差距,才能负责任且有效地使用人工智能。这意味着要理解分析何时结束、人工智能何时开始,培养引导这些系统的技能,以及运用明智的判断决定何时以及如何信任它们的输出。

人工智能的局限、盲点与幻觉

分析利用过去和现在的数据,解释发生了什么以及为什么会发生。人工智能建立在此基础之上,利用先进的分析预测未来,并逐渐实现自动决策或行动。

凭借其卓越的数据处理能力,金融科技领导者很容易将人工智能视为他们的“魔法子弹”。但它不能解决所有问题。人类在模式识别方面仍具有天生优势,尤其是在数据不完整或“脏”时。人工智能可能难以理解人类能迅速把握的语境细微差别。

然而,认为不完美的数据会使人工智能变得无用,是一种错误。分析模型可以在数据不完整的情况下工作。但真正的挑战在于何时部署人工智能,何时依赖人类判断来弥补不足。如果没有这种细致的监管,人工智能可能带来重大风险。

其中一个问题是偏见。当金融科技用旧数据训练人工智能时,往往会继承其中的偏见。例如,客户的名字可能无意中成为性别的代理变量,或姓氏暗示种族,从而影响信用评分,这些偏差没有任何监管机构会认可。这些偏见隐藏在数学中,通常需要人为监督才能发现和纠正。

当人工智能模型面对未曾训练过的场景时,就会出现模型漂移。市场波动、监管变化、客户行为演变以及宏观经济变化都可能影响模型的有效性,若没有人为监控和重新校准。

当金融科技使用无法查看变量关系的“黑箱”模型时,重新校准的难度会急剧上升。在这种情况下,他们失去了将知识传递给管理层决策者的可能性。此外,错误和偏见在不透明模型中隐藏,削弱了信任和合规性。

金融科技领导者需要了解的内容

德勤的一项调查显示,80%的公司表示其董事会几乎没有人工智能经验。但高管层不能把人工智能当作“技术团队的问题”。人工智能的责任在于领导层,这意味着金融科技领导者需要提升技能。

跨分析能力

在推行人工智能之前,金融科技领导者需要能够切换视角——关注数字、商业案例、运营和伦理——并理解这些因素如何交织影响人工智能的结果。他们需要理解模型的统计准确性与信用风险暴露之间的关系。并且要识别当一个看似合理(如还款历史)的变量,可能通过与年龄或种族等受保护类别的相关性引入社会或监管风险时。

这种人工智能素养来自与合规官员一起解读法规、与产品经理讨论用户体验,以及与数据科学家审查模型结果,以捕捉漂移或偏见的迹象。

在金融科技中,100%的风险规避是不可能的,但通过跨分析能力,领导者可以识别值得承担的风险和可能侵蚀股东价值的风险。这项技能还能增强领导者识别和应对偏见的能力,不仅从合规角度,也从战略和伦理角度。

例如,假设某个基于人工智能的信用评分模型偏向某一客户群体。解决这种不平衡不仅仅是数据科学的任务;它还能保护公司的声誉。对于致力于金融包容或面临ESG审查的金融科技公司,仅仅符合法律规定是不够的。判断意味着知道什么是正确的,而不仅仅是允许的。

可解释性素养

可解释性是信任的基础。没有它,决策者、客户和监管者都会质疑模型为何得出某个结论。

这意味着高管必须能够区分可解释模型和需要事后解释(如SHAP值或LIME)的模型。当模型逻辑不清楚时,他们需要提出问题,并认识到“准确性”本身无法为“黑箱”决策提供正当理由。

偏见不是凭空出现的;它在模型训练和部署时若缺乏足够的监管就会出现。可解释性让领导者能够早期发现这些问题,并在造成损害之前采取行动。

人工智能就像飞机的自动驾驶仪。大多数时候,它运行顺畅,但遇到风暴时,飞行员必须接管。在金融领域也是如此。当情况变化时,团队需要有能力停止交易、调整策略,甚至中止产品发布。可解释性与应急准备密不可分,确保高管理解人工智能,并在其规模化运行时保持控制。

概率模型思维

高管习惯于确定性决策,比如信用评分低于650就拒绝申请。但人工智能的运作方式不同,这也是一种重大的思维转变。

对于领导者来说,概率思维需要具备三项能力:

  • 解释风险范围,而非简单的“是/否”二元结果。
  • 权衡预测的置信度与其他业务或监管考虑因素。
  • 了解何时应覆盖自动化,应用人为判断。

例如,一家金融科技的概率人工智能模型可能会将某客户标记为高风险,但这并不一定意味着“拒绝”。可能意味着“进一步调查”或“调整贷款条件”。没有这种细微差别,自动化可能变成钝器,侵蚀客户信任,同时引发监管风险。

为什么判断层将决定金融科技的赢家

未来的金融科技竞争,不在于谁拥有最强大的人工智能模型,而在于谁能用它们做出最精准的判断。随着人工智能的商品化,效率提升已成为基本要求。真正的差异在于在算法遇到不确定性、风险和伦理灰色地带时,谁能果断介入。

判断层不是抽象概念。当高管决定暂停自动交易、推迟产品发布或覆盖不符合实际背景的风险评分时,这些都不是人工智能的失败,而是人类监管作为价值创造最后一道防线的证明。

战略上的协调使判断成为制度化。一个强有力的人工智能战略不仅制定技术路线图,还确保组织定期审视项目、升级团队的AI能力、建立必要的数据架构,并将每次部署与明确的业务目标挂钩。从这个意义上说,判断不是偶发事件,而是融入运营模式,帮助高管推动基于价值的领导方式。

金融科技需要既懂得如何利用人工智能实现速度和规模,又能用人类的背景、细微差别和长远视角进行平衡的领导者。人工智能可以在秒级别检测异常,但只有人类才能决定何时对算法“说不”、重新思考假设或冒险开拓增长。这一判断层,才是真正将人工智能从工具变成优势的关键。

关于作者:

Guillermo Delgado 是 Nisum 的全球人工智能负责人兼 Deep Space Biology 的首席运营官。拥有超过25年的生物化学、人工智能、空间生物学和创业经验,他致力于开发改善地球和太空人类福祉的创新解决方案。

作为企业战略顾问,他曾参与NASA的空间生物学人工智能愿景,并获得多项创新奖。他拥有佐治亚理工学院的人工智能理学硕士学位(荣誉毕业)。此外,作为大学讲师,他教授过机器学习、大数据和基因组科学课程。

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
0/400
暂无评论
交易,随时随地
qrCode
扫码下载 Gate App
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)