Дилема відповідності штучного інтелекту: довіра все ще належить людям

Роман Елошвілі — засновник та генеральний директор групи XData, компанії з розробки програмного забезпечення для B2B. Там він керує розвитком штучного інтелекту у банківській сфері, налагоджує відносини з інвесторами та сприяє масштабуванню бізнесу. Також він є засновником ComplyControl — стартапу з регуляторних технологій (RegTech) у Великій Британії, що спеціалізується на передових технологічних рішеннях для банків.


Дізнайтеся про найактуальніші новини та події у фінтеху!

Підписуйтеся на розсилку FinTech Weekly

Читають керівники JP Morgan, Coinbase, Blackrock, Klarna та інші


Банки та фінтех-компанії по всьому світу шукають способи використання штучного інтелекту у різних сферах: для прискорення операцій, зниження витрат, покращення взаємодії з клієнтами та інше. І все ж, коли йдеться про відповідність вимогам — мабуть, найскладнішій і найчасомозатратнішій частині фінансів — більшість компаній досі утримуються від активного впровадження.

Опитування, проведене на початку 2025 року, показало, що лише невелика частка компаній (менше 2%) повністю інтегрували штучний інтелект у свої робочі процеси. Більшість з них все ще перебуває на ранніх етапах досліджень і впровадження. Якщо взагалі його впроваджують.

Тиск на компанії щодо дотримання регуляторних вимог залишається дуже високим і зростає. Чому ж відповідність так повільно приймає штучний інтелект, хоча він міг би значно допомогти?

Давайте спробуємо з’ясувати.

Зір людського ока все ще має значення

Мабуть, перше і найважливіше, що потрібно пам’ятати — відповідність не зводиться лише до виконання чек-листа. Це про прийняття суджень у ситуаціях, що часто мають сіру зону. Світ фінансових рішень рідко буває чорно-білим. Регуляції різняться залежно від юрисдикції, а тлумачення цих правил — рідко однозначне.

Штучний інтелект чудово справляється з обробкою даних у швидкому режимі та виявленням аномалій. Але, попри здатність позначати підозрілі транзакції за заздалегідь визначеними шаблонами, він не може чітко пояснити «чому» він зробив саме так. Що ще важливіше — він погано працює з нюансами. Людський співробітник з відповідності може визначити, коли поведінка клієнта, хоча й незвична, є безпечною. Штучний інтелект, натомість, швидше за все, просто підніме тривогу без контексту.

Саме тому керівники з відповідності вагаються передавати цю відповідальність машинам. Машини безумовно можуть допомагати, але більшість людей все ще більше довіряє здатності людини бачити ширшу картину і судити відповідно.

Ефективність проти регуляторних і репутаційних ризиків

Здатність штучного інтелекту аналізувати тисячі транзакцій у реальному часі — це те, чого жодна команда з відповідності не могла б досягти вручну. Тому з точки зору ефективності, його можна вважати чудовим інструментом підтримки, що зменшує навантаження і дозволяє людському персоналу зосередитися на більш стратегічних і нюансованих завданнях.

Але відповідність — це не лише швидкість. Якщо система штучного інтелекту припуститься помилки у судженні, це може призвести до штрафів, шкоди репутації або регуляторного контролю. Усе це може бути дуже шкідливим — можливо, навіть руйнівним. Тому цілком логічно, що багато прагнуть уникнути таких ускладнень.

Більшість регуляторів також погоджуються, що у випадку прийняття рішень на основі штучного інтелекту хтось має залишатися відповідальним. Якщо модель штучного інтелекту помилково заблокує легітимну транзакцію або пропустить шахрайську, відповідальність у кінцевому підсумку залишається за компанією. І саме люди з відповідності мають нести цю відповідальність.

Це створює природний рівень обережності: керівники з відповідності мають зважувати переваги швидшого моніторингу проти ризиків можливих регуляторних штрафів. І поки системи штучного інтелекту не стануть більш зрозумілими і прозорими, багато компаній ймовірно залишаться обережними у дозволі їм приймати автономні рішення.

Як відповідально впроваджувати штучний інтелект

Дуже важливий урок із усього вищесказаного — те, що вагання керівників з відповідності не означають їхню антагоністичність до штучного інтелекту. Насправді багато з них оптимістично налаштовані щодо ролі AI у майбутньому. Головне — знайти правильний шлях вперед.

На мою думку, найприроднішим і перспективним шляхом є впровадження гібридної моделі. Співпраця між людьми та штучним інтелектом, де штучний інтелект виконує важку роботу — сканує транзакції, позначає незвичайну активність або генерує звіти. А коли результати готові, люди можуть їх переглянути, інтерпретувати контекст рішень AI і прийняти остаточне рішення.

Щоб впровадити таку модель, компанії повинні переконатися, що їх системи штучного інтелекту є пояснюваними. Відповідність — це не лише виявлення ризиків, а й доведення того, що рішення є справедливими. Саме тому ринок потребує більше інструментів штучного інтелекту, які можуть пояснювати свої результати простими словами.

Це не про «людина проти машини»

Реалістично, я не бачу, щоб штучний інтелект робив посади співробітників з відповідності застарілими. Скоріше, їхні ролі зміняться — від виконавців до менеджерів. Вони менше будуть самі виконувати перевірки і більше — перевіряти рішення AI, працюючи з сірою зоною, де машини ще не до кінця справляються.

В основі відповідності — людський бізнес. І хоча AI може зробити команди з відповідності швидшими і ефективнішими, він не може нести моральну і регуляторну відповідальність, що з цим пов’язана.

Саме тому я твердо переконаний, що майбутнє відповідності полягає не у «людині проти машини», а у «людині з машиною» — спільно працюючи для забезпечення безпеки і справедливості фінансових систем.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити