Roman Eloshvili est fondateur et directeur général du groupe XData, une société de développement de logiciels B2B. À ce poste, il dirige le développement de l’IA dans le secteur bancaire tout en gérant les relations avec les investisseurs et en favorisant la croissance des affaires. Il est également le fondateur de ComplyControl, une startup RegTech basée au Royaume-Uni, spécialisée dans des solutions technologiques de pointe pour les banques.
Découvrez les meilleures actualités et événements fintech !
Abonnez-vous à la newsletter de FinTech Weekly
Lue par des dirigeants de JP Morgan, Coinbase, Blackrock, Klarna et bien d’autres
Les banques et fintechs du monde entier cherchent des moyens d’utiliser l’intelligence artificielle de diverses façons : accélérer les opérations, réduire les coûts, améliorer les interactions avec les clients, et plus encore. Et pourtant, en ce qui concerne la conformité — sans doute l’un des aspects les plus exigeants et chronophages de la finance — la plupart des entreprises hésitent encore.
Une enquête menée plus tôt en 2025 a révélé qu’une très faible fraction des entreprises (moins de 2 %) ont réellement intégré l’IA dans leurs flux de travail. La majorité d’entre elles restent cependant en phase d’exploration et d’adoption précoce. Si elles l’adoptent vraiment, du moins.
La pression sur les entreprises pour suivre l’évolution réglementaire est toujours présente, et elle ne cesse de croître. Alors pourquoi la conformité est-elle si lente à embrasser l’IA alors qu’elle pourrait leur être d’une grande aide ?
Essayons de comprendre.
L’œil humain pour les choses a toujours son importance
Il faut d’abord garder à l’esprit que la conformité ne se limite pas à suivre une liste de contrôle. Il s’agit de faire des jugements dans des situations qui tombent souvent dans des zones grises. Le monde des décisions financières n’est que rarement tout noir ou tout blanc. Les réglementations varient selon les juridictions, et l’interprétation de ces règles est rarement simple.
L’IA est brillante pour analyser des données à une vitesse fulgurante et repérer les anomalies. Mais si elle peut signaler une transaction suspecte selon des modèles préétablis, cela ne signifie pas qu’elle peut expliquer clairement le « pourquoi » derrière ses conclusions. Plus important encore, elle a du mal avec la nuance. Un responsable conformité humain peut détecter quand le comportement d’un client, bien que peu commun, est inoffensif. L’IA, en revanche, est beaucoup plus susceptible de déclencher une alarme sans contexte.
C’est pourquoi les responsables conformité hésitent à leur confier entièrement la tâche. Les machines peuvent certainement aider, mais la majorité des gens font encore davantage confiance à la capacité d’un humain à voir la situation dans son ensemble et à juger en conséquence.
Efficacité versus risques réglementaires et réputationnels
La capacité d’une IA à analyser des milliers de transactions en temps réel est quelque chose qu’aucune équipe de conformité ne pourrait égaler en mode manuel. Sur ce plan, personne ne peut nier que c’est un outil de soutien précieux, capable de réduire la charge de travail pour que le personnel humain se concentre sur des tâches plus stratégiques et nuancées.
Mais la conformité n’est pas un domaine où la rapidité seule suffit. Si un système d’IA commet une erreur de jugement, cela peut entraîner des amendes, des dégâts à la réputation ou un contrôle réglementaire accru. Toutes ces choses peuvent être très nuisibles — voire destructrices — pour une entreprise. Est-il donc surprenant que beaucoup veuillent éviter d’attirer de telles complications ?
La plupart des régulateurs conviennent également que, lorsqu’il s’agit de décisions basées sur l’IA, quelqu’un doit rester responsable. Si un modèle d’IA bloque par erreur une transaction légitime ou en ignore une frauduleuse, la responsabilité revient en fin de compte à l’entreprise. Et ce sont les responsables conformité humains qui doivent assumer cette responsabilité.
Cela crée une prudence naturelle : les responsables conformité doivent peser les bénéfices d’une surveillance plus rapide contre les risques de pénalités réglementaires possibles. Et tant que les systèmes d’IA ne seront pas plus explicables et transparents, il est probable que de nombreuses entreprises hésiteront à leur confier des décisions autonomes.
Comment adopter l’IA de manière responsable
Une leçon très importante à tirer de tout ce qui précède est que l’hésitation des responsables conformité ne signifie pas qu’ils sont anti-IA. En réalité, beaucoup sont optimistes quant au rôle futur de l’IA. L’essentiel est de trouver la bonne voie à suivre.
Selon moi, la voie la plus naturelle et prometteuse consiste à adopter un modèle hybride. Une collaboration entre humains et IA, où l’intelligence artificielle effectue le travail lourd — scanner les transactions, signaler les activités inhabituelles ou générer des rapports. Et lorsque les résultats sont prêts, les humains peuvent les examiner, interpréter le contexte des décisions de l’IA, et prendre la décision finale.
Mais pour pouvoir appliquer un tel modèle, les entreprises devront s’assurer que leurs systèmes d’IA soient explicables. La conformité ne consiste pas seulement à détecter les risques ; il s’agit de prouver que les décisions sont justes. C’est pourquoi le marché a besoin de plus d’outils d’IA capables d’expliquer leurs résultats en termes simples.
Ce n’est pas une question de « homme contre machine »
De façon réaliste, je ne pense pas que l’IA rendra les responsables conformité obsolètes. Il est beaucoup plus probable que leurs rôles évoluent — passant de simples vérificateurs à des gestionnaires. Ils passeront moins de temps à effectuer eux-mêmes des contrôles et se concentreront davantage à vérifier les décisions de l’IA, notamment dans les zones grises où les machines restent encore insuffisantes.
Au fond, la conformité est une affaire humaine. Et si l’IA peut rendre les équipes conformité plus rapides et efficaces, elle ne peut pas assumer la responsabilité morale et réglementaire qui l’accompagne.
C’est pourquoi je suis fermement convaincu que l’avenir de la conformité sera moins une opposition « homme contre machine » et plus une collaboration « homme avec machine » — travaillant ensemble pour maintenir la sécurité et l’équité des systèmes financiers.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Le dilemme de la conformité à l'IA : la confiance appartient toujours aux humains
Roman Eloshvili est fondateur et directeur général du groupe XData, une société de développement de logiciels B2B. À ce poste, il dirige le développement de l’IA dans le secteur bancaire tout en gérant les relations avec les investisseurs et en favorisant la croissance des affaires. Il est également le fondateur de ComplyControl, une startup RegTech basée au Royaume-Uni, spécialisée dans des solutions technologiques de pointe pour les banques.
Découvrez les meilleures actualités et événements fintech !
Abonnez-vous à la newsletter de FinTech Weekly
Lue par des dirigeants de JP Morgan, Coinbase, Blackrock, Klarna et bien d’autres
Les banques et fintechs du monde entier cherchent des moyens d’utiliser l’intelligence artificielle de diverses façons : accélérer les opérations, réduire les coûts, améliorer les interactions avec les clients, et plus encore. Et pourtant, en ce qui concerne la conformité — sans doute l’un des aspects les plus exigeants et chronophages de la finance — la plupart des entreprises hésitent encore.
Une enquête menée plus tôt en 2025 a révélé qu’une très faible fraction des entreprises (moins de 2 %) ont réellement intégré l’IA dans leurs flux de travail. La majorité d’entre elles restent cependant en phase d’exploration et d’adoption précoce. Si elles l’adoptent vraiment, du moins.
La pression sur les entreprises pour suivre l’évolution réglementaire est toujours présente, et elle ne cesse de croître. Alors pourquoi la conformité est-elle si lente à embrasser l’IA alors qu’elle pourrait leur être d’une grande aide ?
Essayons de comprendre.
L’œil humain pour les choses a toujours son importance
Il faut d’abord garder à l’esprit que la conformité ne se limite pas à suivre une liste de contrôle. Il s’agit de faire des jugements dans des situations qui tombent souvent dans des zones grises. Le monde des décisions financières n’est que rarement tout noir ou tout blanc. Les réglementations varient selon les juridictions, et l’interprétation de ces règles est rarement simple.
L’IA est brillante pour analyser des données à une vitesse fulgurante et repérer les anomalies. Mais si elle peut signaler une transaction suspecte selon des modèles préétablis, cela ne signifie pas qu’elle peut expliquer clairement le « pourquoi » derrière ses conclusions. Plus important encore, elle a du mal avec la nuance. Un responsable conformité humain peut détecter quand le comportement d’un client, bien que peu commun, est inoffensif. L’IA, en revanche, est beaucoup plus susceptible de déclencher une alarme sans contexte.
C’est pourquoi les responsables conformité hésitent à leur confier entièrement la tâche. Les machines peuvent certainement aider, mais la majorité des gens font encore davantage confiance à la capacité d’un humain à voir la situation dans son ensemble et à juger en conséquence.
Efficacité versus risques réglementaires et réputationnels
La capacité d’une IA à analyser des milliers de transactions en temps réel est quelque chose qu’aucune équipe de conformité ne pourrait égaler en mode manuel. Sur ce plan, personne ne peut nier que c’est un outil de soutien précieux, capable de réduire la charge de travail pour que le personnel humain se concentre sur des tâches plus stratégiques et nuancées.
Mais la conformité n’est pas un domaine où la rapidité seule suffit. Si un système d’IA commet une erreur de jugement, cela peut entraîner des amendes, des dégâts à la réputation ou un contrôle réglementaire accru. Toutes ces choses peuvent être très nuisibles — voire destructrices — pour une entreprise. Est-il donc surprenant que beaucoup veuillent éviter d’attirer de telles complications ?
La plupart des régulateurs conviennent également que, lorsqu’il s’agit de décisions basées sur l’IA, quelqu’un doit rester responsable. Si un modèle d’IA bloque par erreur une transaction légitime ou en ignore une frauduleuse, la responsabilité revient en fin de compte à l’entreprise. Et ce sont les responsables conformité humains qui doivent assumer cette responsabilité.
Cela crée une prudence naturelle : les responsables conformité doivent peser les bénéfices d’une surveillance plus rapide contre les risques de pénalités réglementaires possibles. Et tant que les systèmes d’IA ne seront pas plus explicables et transparents, il est probable que de nombreuses entreprises hésiteront à leur confier des décisions autonomes.
Comment adopter l’IA de manière responsable
Une leçon très importante à tirer de tout ce qui précède est que l’hésitation des responsables conformité ne signifie pas qu’ils sont anti-IA. En réalité, beaucoup sont optimistes quant au rôle futur de l’IA. L’essentiel est de trouver la bonne voie à suivre.
Selon moi, la voie la plus naturelle et prometteuse consiste à adopter un modèle hybride. Une collaboration entre humains et IA, où l’intelligence artificielle effectue le travail lourd — scanner les transactions, signaler les activités inhabituelles ou générer des rapports. Et lorsque les résultats sont prêts, les humains peuvent les examiner, interpréter le contexte des décisions de l’IA, et prendre la décision finale.
Mais pour pouvoir appliquer un tel modèle, les entreprises devront s’assurer que leurs systèmes d’IA soient explicables. La conformité ne consiste pas seulement à détecter les risques ; il s’agit de prouver que les décisions sont justes. C’est pourquoi le marché a besoin de plus d’outils d’IA capables d’expliquer leurs résultats en termes simples.
Ce n’est pas une question de « homme contre machine »
De façon réaliste, je ne pense pas que l’IA rendra les responsables conformité obsolètes. Il est beaucoup plus probable que leurs rôles évoluent — passant de simples vérificateurs à des gestionnaires. Ils passeront moins de temps à effectuer eux-mêmes des contrôles et se concentreront davantage à vérifier les décisions de l’IA, notamment dans les zones grises où les machines restent encore insuffisantes.
Au fond, la conformité est une affaire humaine. Et si l’IA peut rendre les équipes conformité plus rapides et efficaces, elle ne peut pas assumer la responsabilité morale et réglementaire qui l’accompagne.
C’est pourquoi je suis fermement convaincu que l’avenir de la conformité sera moins une opposition « homme contre machine » et plus une collaboration « homme avec machine » — travaillant ensemble pour maintenir la sécurité et l’équité des systèmes financiers.