Роман Елошвілі — засновник ComplyControl, стартапу з штучним інтелектом для забезпечення відповідності та виявлення шахрайства для фінансових установ.
Дізнайтеся про головні новини та події у фінтеху!
Підписуйтеся на розсилку FinTech Weekly
Читають керівники JP Morgan, Coinbase, Blackrock, Klarna та інших компаній
Що насправді тестує штучний інтелект у сфері відповідності: технології чи нас самих?
У фінансових послугах відповідність вже більше не просто функція. Це активна точка напруги — де стикаються регулювання, ризики та операції. З впровадженням технологій штучного інтелекту у цю сферу постійно виникає одне питання: наскільки ми справді можемо автоматизувати процеси, і хто несе відповідальність, коли щось йде не так?
Привабливість штучного інтелекту у виявленні шахрайства та забезпеченні відповідності легко зрозуміти. Фінансові установи стикаються з зростаючими очікуваннями обробляти величезні обсяги даних, реагувати на змінювані загрози та дотримуватися нових регуляцій — при цьому не жертвуючи швидкістю або точністю. Автоматизація, особливо за допомогою машинного навчання, пропонує спосіб зменшити операційне навантаження. Але вона також викликає глибші питання щодо управління, пояснюваності та контролю.
Ці напруженості не є теоретичними. Вони відбуваються у реальному часі, коли фінансові компанії впроваджують моделі штучного інтелекту у ролі, традиційно виконувані людськими аналітиками. За лаштунками з’являються нові ризики: хибні спрацьовування, сліпі зони аудиту та алгоритмічні рішення, які залишаються непрозорими для користувачів і регуляторів.
Одночасно, фахівців із відповідності просять змінити ролі. Замість ручної перевірки кожної транзакції вони тепер контролюють інструменти, що це роблять. Ця переорієнтація — від виконавця до оцінювача — вимагає не лише нових технічних навичок, а й більш глибокого почуття етичної та процедурної відповідальності. Штучний інтелект може масштабувати аналіз даних. Він може виявляти невідповідності. Але він не може повністю пояснити намір, інтерпретувати контекст або взяти на себе провину.
Розуміння цих обмежень є критичним. І мало хто краще за Романа Елошвілі, засновника британської компанії з технологій відповідності ComplyControl, здатен їх досліджувати. Його робота знаходиться саме на перетині ризиків, автоматизації та контролю — там, де алгоритмічна ефективність зустрічається з регуляторним наглядом.
З більш ніж десятирічним досвідом у галузі, Роман бачив на власні очі, як змінюються команди відповідності і як штучний інтелект трансформує їхні робочі процеси та обов’язки. Він стверджує, що обіцянка штучного інтелекту полягає не в усуненні людських ролей, а у їхньому переосмисленні — у тому, щоб чіткіше визначити, що машини повинні робити, а що — залишати за людьми.
Ця зміна вимагає більше, ніж технічних оновлень. Вона потребує культурної переорієнтації щодо відповідальності. Прозорі системи, аудитуємі процеси та чітко визначена людська відповідальність — вже не просто функції, а мінімальні стандарти. Коли штучний інтелект впроваджується у критичну інфраструктуру, він не просто вирішує проблеми. Він вводить нову категорію рішень, які вимагають активного стратегічного управління.
У цій розмові для FinTech Weekly Роман пропонує реалістичний погляд на те, що потрібно для відповідального впровадження штучного інтелекту у сферу відповідності та запобігання шахрайству. Його точка зору не сприймає автоматизацію як неминучість, а як вибір — такий, що вимагає постійного людського судження, операційної ясності та готовності ставити складні питання про те, де справді знаходиться довіра.
Ми раді поділитися його думками у час, коли багато у фінтеху запитують не про те, чи впроваджувати штучний інтелект, а як зробити це так, щоб не втратити стандарти, що зробили фінансові системи ефективними спочатку.
1. Ви побудували кар’єру на перетині відповідності та технологій. Чи можете пригадати момент, коли ви зрозуміли, що штучний інтелект може кардинально змінити підходи до управління ризиками?
Я б не сказав, що це був один конкретний момент, що все змінив. Скоріше, це був поступовий процес. Я багато років працював з відомими європейськими банками, і одне з того, що я постійно помічав — багато з них значно відстають у цифрових банківських рішеннях. Це особливо було помітно у порівнянні з більш розвинутими фінтех-центрами.
Кілька років тому, коли тема розвитку штучного інтелекту знову почала активно обговорюватися, я природно зацікавився і почав досліджувати цю сферу. Вивчаючи технології та їхню роботу, я зрозумів, що штучний інтелект має потенціал кардинально змінити підходи банків до відповідності, зробивши їх більш сучасними та гнучкими у порівнянні з традиційними методами.
Саме це і спонукало мене заснувати свою компанію у 2023 році. Складність відповідності та управління ризиками лише зростає з кожним роком. З урахуванням цієї реальності наше завдання — пропонувати фінансовим компаніям рішення на базі штучного інтелекту і допомагати їм ефективніше справлятися з цими викликами.
2. З вашої професійної точки зору, як змінилася роль людських фахівців із впровадженням більш просунутих інструментів штучного інтелекту у сфері відповідності та виявлення шахрайства?
Перш за все, хочу сказати одне. Існує поширена тривога, що штучний інтелект замінить людську працю. Щодо фахівців із відповідності та ризиків, моя відповідь — ні, принаймні не найближчим часом.
Хоча штучний інтелект уже трансформує нашу галузь, він ще далекий від ідеалу. Тому людська участь залишається необхідною. Регуляції постійно змінюються, і хтось має нести відповідальність, коли системи дають збій або роблять помилки. На нинішньому рівні розвитку штучний інтелект ще не може чітко пояснити свої рішення, тому він не готовий працювати самостійно. Особливо у сфері, де довіра і прозорість — на першому місці.
Проте штучний інтелект активно полегшує процеси відповідності. Наприклад, залежно від налаштувань, системи штучного інтелекту можуть позначати підозрілі транзакції або навіть тимчасово блокувати їх, запитуючи додаткову перевірку. Не потрібно, щоб людина вручну переглядала кожну деталь, якщо щось справді виглядає дивним. І з розвитком цих систем вони й надалі зменшуватимуть потребу у ручній роботі, дозволяючи командам зосередитися на більш тонких завданнях, що справді вимагають людського втручання.
Я вважаю, що з’явиться гібридна модель, коли фахівці з відповідності все більше опануватимуть інструменти штучного інтелекту. Вони будуть впроваджувати та підтримувати системи штучного інтелекту, а самі системи — спрощувати їхню роботу, аналізуючи складні дані і надаючи рекомендації. Остаточне рішення все одно залишатиметься за людьми.
3. Працюючи з штучним інтелектом у чутливих сферах, таких як фінансова відповідність, як особисто ви підходите до питання збереження довіри та відповідальності у процесі прийняття рішень?
Звичайно. Як я вже згадував, довіра — ключовий аспект при використанні штучного інтелекту у відповідності.
Саме тому ми зробили наші системи штучного інтелекту максимально прозорими. Вони не працюють як «чорна скринька» — кожне рекомендаційне рішення базується на відслідковуваних правилах і даних. Ми зберігаємо повний аудитний слід кожного рішення, щоб його можна було пояснити. Це вже довело свою цінність у спілкуванні з регуляторами.
Остаточне рішення завжди приймає відповідальний співробітник із відповідності. Штучний інтелект просто пропонує обґрунтовану рекомендацію, яку людина може легко перевірити і вирішити — схвалити чи відхилити.
4. Ваш досвід налічує понад 10 років. Як змінювалося ваше ставлення до автоматизації та людського контролю протягом кар’єри, особливо зараз, коли штучний інтелект стає дедалі автономнішим?
Безумовно. Говорячи ширше про стан впровадження штучного інтелекту, чим далі просувається ця технологія, тим більше ми дозволяємо їй автономії — за умови, що вона пройде ретельне тестування і доведе свою надійність.
Але ще більше змінюється роль людського фахівця у цій системі. Замість мікроменеджменту кожної справи, співробітники з відповідності все більше виконують роль стратегічних наглядачів. Вони можуть швидко переглядати цілі групи схожих випадків, оцінювати роботу системи і коригувати моделі на основі отриманих результатів.
Інакше кажучи, фактична роль фахівця з відповідності переходить від ручної роботи до управління системами штучного інтелекту, які роблять цю роботу за них.
5. Робота з штучним інтелектом у сферах, що вимагають високої етичності, наприклад у ризик-менеджменті, означає вирішення складних моральних питань. Як ви особисто розробили рамки для відповідального прийняття рішень при проектуванні або впровадженні AI-рішень?
Ми побудували наш підхід навколо двох ключових ідей: прозорого контролю та принципів відповідального штучного інтелекту. Кожна модель, яку ми використовуємо, має призначену відповідальну особу. Оцінки ризиків, перевірки продуктивності та аудити — все це робиться регулярно.
Ми також гарантуємо, що наші системи є аудитуємими. Якщо алгоритм приймає рішення, цей процес можна переглянути і підтвердити. Ця прозорість — основа нашої відданості відповідальному розвитку штучного інтелекту.
6. У вашому досвіді, яка найскладніша професійна урока щодо обмежень або ризиків надмірної залежності від автоматизації у критичних сферах, таких як запобігання шахрайству?
Один із важливих уроків — навіть добре натреновані моделі можуть «галюцинувати» — робити помилки у тонких, але серйозних випадках.
Штучний інтелект може пропустити складні схеми шахрайства або викликати надто багато хибних спрацьовувань. Саме тому поєднання AI з людською експертизою так важливе — люди мають гнучке судження і краще оцінюють етику та контекст, ніж штучний інтелект.
Баланс між ними забезпечує більш надійні результати. AI допомагає обробляти великий обсяг завдань і зменшувати їхню складність, тоді як люди підтримують потрібний рівень точності і довіри.
7. Які особисті принципи або звички ви порадили б молодим фахівцям, що входять у сферу відповідності, управління ризиками або розробки AI, щоб успішно адаптуватися у такій швидкозмінній галузі?
Найперше — ніколи не припиняйте навчання. Технологічний прогрес не має «пауза»-режиму, і потрібно йти в ногу або залишитися позаду. Тут не має компромісів.
По-друге, думайте широко. З розвитком AI межі між ролями стираються — технології, фінанси і регулювання стають єдиним полем. Впевнений, що широкий набір навичок і відкритий розум стануть визначальними рисами майбутніх професіоналів.
По-третє — будьте гнучкими. Зміни постійні, і здатність швидко адаптуватися стане вашим великим плюсом.
І нарешті, розвивайте навички комунікації і вчіться працювати в команді. Як ми вже говорили, відповідність — це перехрестя бізнесу, технологій і права. Вміння швидко переключатися між цими сферами і спілкуватися з людьми з різних галузей — цінний навик.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Штучний інтелект у відповідності — це не чорна скринька, а випробування відповідальності: інтерв’ю з Романом Елошвілі
Роман Елошвілі — засновник ComplyControl, стартапу з штучним інтелектом для забезпечення відповідності та виявлення шахрайства для фінансових установ.
Дізнайтеся про головні новини та події у фінтеху!
Підписуйтеся на розсилку FinTech Weekly
Читають керівники JP Morgan, Coinbase, Blackrock, Klarna та інших компаній
Що насправді тестує штучний інтелект у сфері відповідності: технології чи нас самих?
У фінансових послугах відповідність вже більше не просто функція. Це активна точка напруги — де стикаються регулювання, ризики та операції. З впровадженням технологій штучного інтелекту у цю сферу постійно виникає одне питання: наскільки ми справді можемо автоматизувати процеси, і хто несе відповідальність, коли щось йде не так?
Привабливість штучного інтелекту у виявленні шахрайства та забезпеченні відповідності легко зрозуміти. Фінансові установи стикаються з зростаючими очікуваннями обробляти величезні обсяги даних, реагувати на змінювані загрози та дотримуватися нових регуляцій — при цьому не жертвуючи швидкістю або точністю. Автоматизація, особливо за допомогою машинного навчання, пропонує спосіб зменшити операційне навантаження. Але вона також викликає глибші питання щодо управління, пояснюваності та контролю.
Ці напруженості не є теоретичними. Вони відбуваються у реальному часі, коли фінансові компанії впроваджують моделі штучного інтелекту у ролі, традиційно виконувані людськими аналітиками. За лаштунками з’являються нові ризики: хибні спрацьовування, сліпі зони аудиту та алгоритмічні рішення, які залишаються непрозорими для користувачів і регуляторів.
Одночасно, фахівців із відповідності просять змінити ролі. Замість ручної перевірки кожної транзакції вони тепер контролюють інструменти, що це роблять. Ця переорієнтація — від виконавця до оцінювача — вимагає не лише нових технічних навичок, а й більш глибокого почуття етичної та процедурної відповідальності. Штучний інтелект може масштабувати аналіз даних. Він може виявляти невідповідності. Але він не може повністю пояснити намір, інтерпретувати контекст або взяти на себе провину.
Розуміння цих обмежень є критичним. І мало хто краще за Романа Елошвілі, засновника британської компанії з технологій відповідності ComplyControl, здатен їх досліджувати. Його робота знаходиться саме на перетині ризиків, автоматизації та контролю — там, де алгоритмічна ефективність зустрічається з регуляторним наглядом.
З більш ніж десятирічним досвідом у галузі, Роман бачив на власні очі, як змінюються команди відповідності і як штучний інтелект трансформує їхні робочі процеси та обов’язки. Він стверджує, що обіцянка штучного інтелекту полягає не в усуненні людських ролей, а у їхньому переосмисленні — у тому, щоб чіткіше визначити, що машини повинні робити, а що — залишати за людьми.
Ця зміна вимагає більше, ніж технічних оновлень. Вона потребує культурної переорієнтації щодо відповідальності. Прозорі системи, аудитуємі процеси та чітко визначена людська відповідальність — вже не просто функції, а мінімальні стандарти. Коли штучний інтелект впроваджується у критичну інфраструктуру, він не просто вирішує проблеми. Він вводить нову категорію рішень, які вимагають активного стратегічного управління.
У цій розмові для FinTech Weekly Роман пропонує реалістичний погляд на те, що потрібно для відповідального впровадження штучного інтелекту у сферу відповідності та запобігання шахрайству. Його точка зору не сприймає автоматизацію як неминучість, а як вибір — такий, що вимагає постійного людського судження, операційної ясності та готовності ставити складні питання про те, де справді знаходиться довіра.
Ми раді поділитися його думками у час, коли багато у фінтеху запитують не про те, чи впроваджувати штучний інтелект, а як зробити це так, щоб не втратити стандарти, що зробили фінансові системи ефективними спочатку.
1. Ви побудували кар’єру на перетині відповідності та технологій. Чи можете пригадати момент, коли ви зрозуміли, що штучний інтелект може кардинально змінити підходи до управління ризиками?
Я б не сказав, що це був один конкретний момент, що все змінив. Скоріше, це був поступовий процес. Я багато років працював з відомими європейськими банками, і одне з того, що я постійно помічав — багато з них значно відстають у цифрових банківських рішеннях. Це особливо було помітно у порівнянні з більш розвинутими фінтех-центрами.
Кілька років тому, коли тема розвитку штучного інтелекту знову почала активно обговорюватися, я природно зацікавився і почав досліджувати цю сферу. Вивчаючи технології та їхню роботу, я зрозумів, що штучний інтелект має потенціал кардинально змінити підходи банків до відповідності, зробивши їх більш сучасними та гнучкими у порівнянні з традиційними методами.
Саме це і спонукало мене заснувати свою компанію у 2023 році. Складність відповідності та управління ризиками лише зростає з кожним роком. З урахуванням цієї реальності наше завдання — пропонувати фінансовим компаніям рішення на базі штучного інтелекту і допомагати їм ефективніше справлятися з цими викликами.
2. З вашої професійної точки зору, як змінилася роль людських фахівців із впровадженням більш просунутих інструментів штучного інтелекту у сфері відповідності та виявлення шахрайства?
Перш за все, хочу сказати одне. Існує поширена тривога, що штучний інтелект замінить людську працю. Щодо фахівців із відповідності та ризиків, моя відповідь — ні, принаймні не найближчим часом.
Хоча штучний інтелект уже трансформує нашу галузь, він ще далекий від ідеалу. Тому людська участь залишається необхідною. Регуляції постійно змінюються, і хтось має нести відповідальність, коли системи дають збій або роблять помилки. На нинішньому рівні розвитку штучний інтелект ще не може чітко пояснити свої рішення, тому він не готовий працювати самостійно. Особливо у сфері, де довіра і прозорість — на першому місці.
Проте штучний інтелект активно полегшує процеси відповідності. Наприклад, залежно від налаштувань, системи штучного інтелекту можуть позначати підозрілі транзакції або навіть тимчасово блокувати їх, запитуючи додаткову перевірку. Не потрібно, щоб людина вручну переглядала кожну деталь, якщо щось справді виглядає дивним. І з розвитком цих систем вони й надалі зменшуватимуть потребу у ручній роботі, дозволяючи командам зосередитися на більш тонких завданнях, що справді вимагають людського втручання.
Я вважаю, що з’явиться гібридна модель, коли фахівці з відповідності все більше опануватимуть інструменти штучного інтелекту. Вони будуть впроваджувати та підтримувати системи штучного інтелекту, а самі системи — спрощувати їхню роботу, аналізуючи складні дані і надаючи рекомендації. Остаточне рішення все одно залишатиметься за людьми.
3. Працюючи з штучним інтелектом у чутливих сферах, таких як фінансова відповідність, як особисто ви підходите до питання збереження довіри та відповідальності у процесі прийняття рішень?
Звичайно. Як я вже згадував, довіра — ключовий аспект при використанні штучного інтелекту у відповідності.
Саме тому ми зробили наші системи штучного інтелекту максимально прозорими. Вони не працюють як «чорна скринька» — кожне рекомендаційне рішення базується на відслідковуваних правилах і даних. Ми зберігаємо повний аудитний слід кожного рішення, щоб його можна було пояснити. Це вже довело свою цінність у спілкуванні з регуляторами.
Остаточне рішення завжди приймає відповідальний співробітник із відповідності. Штучний інтелект просто пропонує обґрунтовану рекомендацію, яку людина може легко перевірити і вирішити — схвалити чи відхилити.
4. Ваш досвід налічує понад 10 років. Як змінювалося ваше ставлення до автоматизації та людського контролю протягом кар’єри, особливо зараз, коли штучний інтелект стає дедалі автономнішим?
Безумовно. Говорячи ширше про стан впровадження штучного інтелекту, чим далі просувається ця технологія, тим більше ми дозволяємо їй автономії — за умови, що вона пройде ретельне тестування і доведе свою надійність.
Але ще більше змінюється роль людського фахівця у цій системі. Замість мікроменеджменту кожної справи, співробітники з відповідності все більше виконують роль стратегічних наглядачів. Вони можуть швидко переглядати цілі групи схожих випадків, оцінювати роботу системи і коригувати моделі на основі отриманих результатів.
Інакше кажучи, фактична роль фахівця з відповідності переходить від ручної роботи до управління системами штучного інтелекту, які роблять цю роботу за них.
5. Робота з штучним інтелектом у сферах, що вимагають високої етичності, наприклад у ризик-менеджменті, означає вирішення складних моральних питань. Як ви особисто розробили рамки для відповідального прийняття рішень при проектуванні або впровадженні AI-рішень?
Ми побудували наш підхід навколо двох ключових ідей: прозорого контролю та принципів відповідального штучного інтелекту. Кожна модель, яку ми використовуємо, має призначену відповідальну особу. Оцінки ризиків, перевірки продуктивності та аудити — все це робиться регулярно.
Ми також гарантуємо, що наші системи є аудитуємими. Якщо алгоритм приймає рішення, цей процес можна переглянути і підтвердити. Ця прозорість — основа нашої відданості відповідальному розвитку штучного інтелекту.
6. У вашому досвіді, яка найскладніша професійна урока щодо обмежень або ризиків надмірної залежності від автоматизації у критичних сферах, таких як запобігання шахрайству?
Один із важливих уроків — навіть добре натреновані моделі можуть «галюцинувати» — робити помилки у тонких, але серйозних випадках.
Штучний інтелект може пропустити складні схеми шахрайства або викликати надто багато хибних спрацьовувань. Саме тому поєднання AI з людською експертизою так важливе — люди мають гнучке судження і краще оцінюють етику та контекст, ніж штучний інтелект.
Баланс між ними забезпечує більш надійні результати. AI допомагає обробляти великий обсяг завдань і зменшувати їхню складність, тоді як люди підтримують потрібний рівень точності і довіри.
7. Які особисті принципи або звички ви порадили б молодим фахівцям, що входять у сферу відповідності, управління ризиками або розробки AI, щоб успішно адаптуватися у такій швидкозмінній галузі?
Найперше — ніколи не припиняйте навчання. Технологічний прогрес не має «пауза»-режиму, і потрібно йти в ногу або залишитися позаду. Тут не має компромісів.
По-друге, думайте широко. З розвитком AI межі між ролями стираються — технології, фінанси і регулювання стають єдиним полем. Впевнений, що широкий набір навичок і відкритий розум стануть визначальними рисами майбутніх професіоналів.
По-третє — будьте гнучкими. Зміни постійні, і здатність швидко адаптуватися стане вашим великим плюсом.
І нарешті, розвивайте навички комунікації і вчіться працювати в команді. Як ми вже говорили, відповідність — це перехрестя бізнесу, технологій і права. Вміння швидко переключатися між цими сферами і спілкуватися з людьми з різних галузей — цінний навик.