合规中的人工智能不是黑箱——这是对问责制的考验:与Roman Eloshvili的访谈

Roman Eloshvili 是 ComplyControl 的创始人,这是一家为金融机构提供人工智能驱动的合规与反欺诈检测的创业公司。


发现顶级金融科技新闻与活动!

订阅 FinTech Weekly 的新闻通讯

由摩根大通、Coinbase、贝莱德、Klarna 等高管阅读


合规中的人工智能到底在测试什么:技术,还是我们?

在金融服务行业,合规不再仅仅是一个职能。它是一个活跃的压力点——监管、风险与运营在此交汇。当人工智能技术被引入这个领域时,一个问题不断浮现:我们到底能自动化到什么程度?当出现问题时,责任由谁承担?

在欺诈检测和合规中应用人工智能的吸引力不难理解。金融机构面临着日益增长的期望,要处理海量数据,应对不断变化的威胁,并遵守不断调整的法规——所有这一切都不能牺牲速度或准确性。自动化,尤其是在机器学习驱动下,提供了一种减轻运营压力的途径。但它也引发了关于治理、可解释性和控制的更深层次担忧。

这些紧张关系并非空想。 它们正在实时展开,金融公司将AI模型部署到传统由人类分析师承担的角色中。在幕后的场景中,新的风险正在出现:误报、审计盲点,以及对用户和监管者来说仍然模糊的算法决策。

与此同时,合规专业人士的角色也在发生转变。他们不再手动检查每一笔交易,而是监督那些自动化工具。这种角色转变——从执行者到评估者——不仅需要新的技术技能,还需要更强的伦理和程序责任感。AI可以扩展数据分析能力,可以标记不一致之处,但它无法完全解释意图、理解上下文或承担责任。

理解这些限制至关重要。而很少有人比Roman Eloshvili 更适合探索这些问题,他是英国合规技术公司 ComplyControl 的创始人。他的工作正处于风险、自动化与监管审查的交汇点——算法效率与合规审查的结合点。

拥有十年以上行业经验的 Roman 亲眼见证了合规团队的演变,以及AI如何重塑他们的工作流程和责任。他认为,AI的承诺不在于消除人类角色,而在于重塑它们——为机器应处理的任务带来更清晰的界定,为人类必须掌控的部分留出空间。

这种转变不仅需要技术升级,还需要围绕责任的文化调整。透明的系统、可审计的流程以及明确分配的人类责任,不再只是特性——它们是最低标准。当AI被引入关键基础设施时,它不仅解决问题,还引入了一类需要主动、战略性管理的新决策类别。

在这次为 FinTech Weekly 的对话中,Roman 提供了一个务实的视角,说明将AI负责任地融入合规和反欺诈需要什么。 他的观点并不将自动化视为必然,而是一种选择——这需要持续的人类判断、操作清晰和对信任归属的深刻思考。

我们很高兴在许多金融科技公司思考是否采用AI——而不是如何在不失去金融体系最初运作标准的前提下引入AI的时期,分享他的见解。


1. 您在合规与技术的交汇点建立了职业生涯。能否回忆起您意识到AI可能从根本上改变风险管理方式的那一刻?

我不会说只有某一个具体时刻改变了一切,而是一个逐步展开的过程。我职业生涯的大部分时间都在欧洲的传统银行工作,发现许多银行在数字银行解决方案方面远远落后。与更先进的金融科技中心相比,这种差距尤为明显。

几年前,AI发展的热潮再次升温,我自然产生了好奇心并开始研究。当我学习这项技术及其工作原理时,我意识到人工智能有潜力极大改变银行处理合规的方式,使它们更接近现代、更敏捷的金融科技公司。

这促使我在2023年创立了自己的公司。合规和风险管理的复杂性每年都在增加。面对这一现实,我们的使命很简单:为金融公司提供AI驱动的解决方案,帮助他们更有效地应对日益增长的挑战。

2. 从您的专业角度来看,随着AI工具在合规和反欺诈检测中的不断进步,人类专家的角色有何演变?

首先,我要直截了当地说一件事。许多领域都担心AI会取代人类员工。而就合规和风险专业人士而言,我的回答是否定的——至少目前还不是。

虽然人工智能已经在改变我们的行业,但它远未达到万无一失的程度。因此,人类的参与仍然是不可或缺的。合规法规不断变化,总得有人负责在系统失误或出错时承担责任。在目前的发展水平上,AI仍难以清楚解释其决策,因此还不能完全由它自主操作。尤其是在信任和透明度至关重要的领域。

话虽如此,AI正积极简化合规流程。例如,根据配置不同,AI系统现在可以标记可疑交易,甚至在请求进一步验证时暂时阻止交易。除非某些交易确实异常,否则无需人工逐一审查。随着这些系统的不断演进,它们将继续减少手工操作,让团队更多专注于需要人类判断的细节任务。

我相信,未来会出现一种混合模式,合规专家也会变得越来越擅长使用AI工具。他们将负责部署和维护AI系统,而AI则通过理解复杂数据和提供建议来简化他们的工作。但最终的判断权仍在于人类。

3. 在金融合规等敏感领域使用AI时,您是如何应对在决策中保持信任和责任的问题的?

当然。正如我之前提到的,在合规中使用AI,信任至关重要。

因此,我们设计的AI系统完全透明。它们不像“黑箱”——每个建议都基于可追溯的规则和数据。我们保留完整的审计轨迹,确保每个决策都可以追溯和解释。这在与监管机构打交道时已经证明非常有价值。

最终的决定权始终由合规官行使。AI只提供充分理由的建议,人工可以轻松核查并决定是否批准或拒绝。

4. 您拥有超过十年的经验。随着AI变得更加自主,您的心态在职业生涯中有何变化?

当然。更广泛地看,随着AI技术的不断进步,我们逐步赋予它更多自主权——只要它经过充分测试并持续证明可靠。

但更重要的变化在于人类专家在这个体系中的角色。不是微观管理每个案例,而是成为战略性的监管者。他们可以快速审查一批类似的案例,验证系统性能,并根据结果调整模型。

换句话说,合规官的角色正从手工操作逐步转向管理AI系统,让它们为自己工作。

5. 在AI驱动的风险管理中,您是如何建立起负责任的决策框架的?

我们的方法围绕两个核心理念:明确的监督和负责任的AI原则。我们使用的每个模型都有人负责。风险评估、性能审查和合规检查都定期进行。

我们还确保系统可审计。如果算法做出决策,整个过程都可以被审查和验证。这种透明性是我们对负责任AI开发承诺的核心部分。

6. 在您的职业旅程中,关于过度依赖自动化在关键领域(如反欺诈)中的限制或风险,您学到的最困难的教训是什么?

我认为必须牢记的一点是,即使是经过良好训练的模型,也可能“幻觉”——在微妙但严重的方面出错。

AI可能会漏掉复杂的欺诈方案,或者触发过多的误报。这正是为什么将AI与人类专业知识结合如此重要——人类拥有灵活的判断力,更善于评估伦理和整体背景,而AI尚不能胜任。

两者的平衡能带来更好、更可靠的结果。AI可以帮助处理大量任务,减轻复杂性,而人类则负责确保准确性和信任。

7. 对于今天进入合规、风险管理或AI开发的年轻专业人士,您会建议他们培养哪些原则或习惯,以在如此快速变化的环境中成功和适应?

首先:永远不要停止学习。技术进步没有“暂停”按钮,你必须跟上,否则就会被甩在后面。这里没有中间地带。

第二,要有宽广的视野。随着AI的发展,角色之间的界限变得模糊——技术、金融和监管正变成一锅“杂烩”。我相信,拥有多样技能和开放心态,将成为未来行业专业人士的决定性特质。

第三——也是前两点的自然延续——要具有适应性。变化是常态,快速调整的能力将是你的巨大优势。

最后,培养良好的沟通能力,学会团队合作。正如我们之前讨论的,合规处于商业、技术和法律的交叉点。能够在这些领域之间切换,与不同背景的人交流,将是非常宝贵的技能。

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
0/400
暂无评论
交易,随时随地
qrCode
扫码下载 Gate App
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)