La couche de jugement : pourquoi l'IA n'est pas intelligente tant que les leaders ne le sont pas davantage

Guillermo Delgado Aparicio est Leader mondial en IA chez Nisum.


Découvrez les principales actualités et événements fintech !

Abonnez-vous à la newsletter de FinTech Weekly

Lue par des dirigeants de JP Morgan, Coinbase, Blackrock, Klarna et d’autres


L’IA dans la fintech couvre un éventail d’applications, allant de la détection de fraude et du trading algorithmique à la notation de crédit dynamique et aux recommandations de produits personnalisés. Pourtant, un rapport de la Financial Conduct Authority a révélé que parmi les 75 % d’entreprises utilisant l’IA, seulement 34 % savent comment elle fonctionne.

Le problème ne réside pas seulement dans un manque de connaissance. Il s’agit d’une méconnaissance profonde du pouvoir et de la portée de l’analyse de données, la discipline dont l’IA découle. L’adoption massive des outils d’IA générative a porté le sujet au sommet de la hiérarchie. Mais beaucoup de ceux qui décident de la mise en œuvre de l’IA ne comprennent pas ses principes fondamentaux de calcul, de statistiques et d’algorithmes avancés.

Prenez la loi de Benford, un principe statistique simple qui détecte la fraude en repérant des motifs dans les chiffres. L’IA s’appuie sur ce même type de mathématiques, simplement à une échelle de millions de transactions simultanées. En éliminant le battage médiatique, la base reste la statistique et les algorithmes.

C’est pourquoi la maîtrise de l’IA au niveau de la direction est essentielle. Les leaders qui ne savent pas où s’arrête l’analyse risquent de faire confiance excessivement à des systèmes qu’ils ne comprennent pas ou de les sous-utiliser par crainte. Et l’histoire montre ce qui arrive lorsque les décideurs mal interprètent la technologie : les régulateurs ont déjà tenté d’interdire les appels IP internationaux, pour voir la technologie dépasser les règles. La même dynamique se joue avec l’IA. On ne peut pas la bloquer ni l’adopter aveuglément ; il faut du jugement, du contexte et la capacité de la guider de manière responsable.

Les leaders fintech doivent combler ces lacunes pour utiliser l’IA de manière responsable et efficace. Cela implique de comprendre où s’arrête l’analyse et où commence l’IA, de développer les compétences pour piloter ces systèmes, et d’appliquer un jugement éclairé pour décider quand et comment faire confiance à leurs résultats.

Les limites, angles morts et illusions de l’IA

L’analyse examine les données passées et présentes pour expliquer ce qui s’est passé et pourquoi. L’IA s’appuie sur cette base, utilisant des analyses avancées pour prévoir ce qui va se produire ensuite et, de plus en plus, pour décider ou agir automatiquement.

Avec ses compétences exceptionnelles en traitement de données, il est facile de comprendre pourquoi les leaders fintech voient l’IA comme leur solution miracle. Mais elle ne peut pas résoudre tous les problèmes. Les humains ont toujours un avantage inné dans la reconnaissance de motifs, surtout lorsque les données sont incomplètes ou « sales ». L’IA peut avoir du mal à interpréter les nuances contextuelles que les humains saisissent rapidement.

Pourtant, il est une erreur de penser que des données imparfaites rendent l’IA inutile. Les modèles analytiques peuvent fonctionner avec des données incomplètes. Mais savoir quand déployer l’IA et quand faire confiance au jugement humain pour combler les lacunes est le vrai défi. Sans cette supervision attentive, l’IA peut introduire des risques importants.

Un tel problème est le biais. Lorsqu’une fintech entraîne l’IA sur d’anciens ensembles de données, elle hérite souvent des biais qui y sont liés. Par exemple, le prénom d’un client peut involontairement servir de proxy pour le genre, ou le nom de famille peut donner des indices sur l’origine ethnique, biaisant les scores de crédit de manière que aucun régulateur n’approuverait. Ces biais, facilement dissimulés dans les mathématiques, nécessitent souvent une supervision humaine pour être détectés et corrigés.

Lorsque les modèles d’IA sont exposés à des situations pour lesquelles ils n’ont pas été entraînés, cela peut entraîner un dérive du modèle. La volatilité du marché, les changements réglementaires, l’évolution des comportements des clients et les fluctuations macroéconomiques peuvent tous impacter l’efficacité d’un modèle sans surveillance humaine et recalibrage.

La difficulté de recalibrer les algorithmes augmente fortement lorsque les fintech utilisent des boîtes noires qui ne permettent pas de voir la relation entre les variables. Dans ces conditions, elles perdent la possibilité de transmettre cette connaissance aux décideurs. De plus, les erreurs et biais restent cachés dans des modèles opaques, ce qui nuit à la confiance et à la conformité.

Ce que les leaders fintech doivent savoir

Une enquête de Deloitte a révélé que 80 % déclarent que leurs conseils d’administration ont peu ou pas d’expérience avec l’IA. Mais les cadres dirigeants ne peuvent pas se permettre de traiter l’IA comme un problème réservé à l’équipe technique. La responsabilité de l’IA incombe à la direction, ce qui signifie que les leaders fintech doivent renforcer leurs compétences.

Maîtrise transanalytique

Avant de déployer l’IA, les leaders fintech doivent pouvoir changer de perspective — examiner les chiffres, le cas d’affaires, les opérations et l’éthique — et voir comment ces facteurs se chevauchent et façonnent les résultats de l’IA. Ils doivent comprendre comment la précision statistique d’un modèle se rapporte à l’exposition au risque de crédit. Et reconnaître quand une variable apparemment financièrement saine (comme l’historique de remboursement) peut introduire un risque social ou réglementaire par corrélation avec une catégorie protégée, comme l’âge ou l’origine ethnique.

Cette maîtrise de l’IA vient en dialoguant avec les responsables conformité pour déchiffrer les réglementations, en discutant avec les gestionnaires de produits sur l’expérience utilisateur, et en examinant les résultats des modèles avec les data scientists pour repérer des signes de dérive ou de biais.

Dans la fintech, éviter totalement le risque est impossible, mais avec cette maîtrise transanalytique, les leaders peuvent identifier quels risques valent la peine d’être pris et lesquels risquent d’éroder la valeur pour les actionnaires. Cette compétence aiguise aussi la capacité à repérer et agir contre les biais, non seulement d’un point de vue réglementaire, mais aussi stratégique et éthique.

Par exemple, si un modèle de scoring de crédit basé sur l’IA penche fortement vers un groupe de clients, corriger ce déséquilibre ne se limite pas à une tâche de data science ; cela protège la réputation de l’entreprise. Pour les fintech engagées dans l’inclusion financière ou soumises à des enjeux ESG, la conformité légale ne suffit pas. Le jugement consiste à savoir ce qui est juste, pas seulement ce qui est permis.

Littératie en explicabilité

L’explicabilité est la base de la confiance. Sans elle, les décideurs, clients et régulateurs se demandent pourquoi un modèle est arrivé à une conclusion spécifique.

Cela signifie que les dirigeants doivent pouvoir distinguer entre des modèles interprétables et ceux nécessitant des explications post-hoc (comme les valeurs SHAP ou LIME). Ils doivent poser des questions lorsque la logique d’un modèle n’est pas claire et reconnaître quand « la précision » seule ne peut justifier une décision en boîte noire.

Les biais n’apparaissent pas de nulle part ; ils émergent lorsque les modèles sont entraînés et déployés sans supervision suffisante. L’explicabilité donne aux leaders la visibilité pour détecter ces problèmes rapidement et agir avant qu’ils ne causent des dommages.

L’IA est comme le pilote automatique d’un avion. La plupart du temps, elle fonctionne sans problème, mais lorsqu’une tempête survient, le pilote doit reprendre le contrôle. En finance, ce même principe s’applique. Les équipes doivent pouvoir arrêter le trading, ajuster une stratégie ou même interrompre un lancement de produit lorsque les conditions changent. L’explicabilité fonctionne en tandem avec la capacité à prendre le contrôle, ce qui garantit que la direction comprend l’IA et reste maître du jeu, même à grande échelle.

Pensée probabiliste

Les dirigeants sont habitués à des décisions déterministes, comme si un score de crédit est inférieur à 650, refuser la demande. Mais l’IA ne fonctionne pas ainsi, et cela représente un changement de paradigme mental majeur.

Pour les leaders, la pensée probabiliste requiert trois capacités :

*   Interpréter des plages de risque plutôt que des résultats binaires oui/non.
*   Peser le niveau de confiance d’une prédiction par rapport à d’autres considérations commerciales ou réglementaires.
*   Savoir quand prendre le contrôle et appliquer le jugement humain.

Par exemple, un modèle probabiliste d’une fintech pourrait signaler qu’un client présente un risque élevé, mais cela ne signifie pas nécessairement « refuser ». Cela peut signifier « approfondir l’investigation » ou « ajuster les conditions du prêt ». Sans cette nuance, l’automatisation risque de devenir un instrument brut, érodant la confiance des clients tout en exposant l’entreprise à des répercussions réglementaires.

Pourquoi la couche de jugement déterminera les gagnants de la fintech

L’avenir de la fintech ne sera pas décidé par ceux qui ont les modèles d’IA les plus puissants, mais par ceux qui les utilisent avec le meilleur jugement. À mesure que l’IA devient une commodité, les gains d’efficacité deviennent la norme. Ce qui distingue les gagnants, c’est leur capacité à intervenir lorsque les algorithmes rencontrent de l’incertitude, des risques et des zones grises éthiques.

La couche de jugement n’est pas une idée abstraite. Elle apparaît lorsque les dirigeants décident de suspendre un trading automatisé, de retarder un lancement de produit ou de modifier un score de risque qui ne reflète pas le contexte réel. Ces moments ne sont pas des échecs de l’IA ; ils prouvent que la supervision humaine reste la dernière ligne de création de valeur.

L’alignement stratégique est là où le jugement devient institutionnalisé. Une stratégie IA solide ne se limite pas à établir des feuilles de route techniques ; elle veille à ce que l’organisation revoie ses initiatives, améliore les compétences en IA des équipes, s’assure que l’architecture des données est adaptée, et relie chaque déploiement à un objectif commercial clair. En ce sens, le jugement n’est pas une démarche ponctuelle, mais intégrée au mode de fonctionnement, permettant aux dirigeants d’adopter une approche de leadership basée sur la valeur.

Les fintechs ont besoin de leaders capables d’équilibrer l’IA pour la rapidité et l’échelle, et l’humain pour le contexte, la nuance et la vision à long terme. L’IA peut repérer des anomalies en quelques secondes, mais seul l’humain peut décider quand remettre en question la mathématique, repenser les hypothèses ou prendre un risque audacieux qui ouvre la voie à la croissance. Cette couche de jugement transforme l’IA d’un simple outil en un avantage stratégique.

À propos de l’auteur :

Guillermo Delgado est le Leader mondial en IA pour Nisum et COO de Deep Space Biology. Fort de plus de 25 ans d’expérience en biochimie, intelligence artificielle, biologie spatiale et entrepreneuriat, il développe des solutions innovantes pour le bien-être humain sur Terre et dans l’espace.

En tant que consultant en stratégie d’entreprise, il a contribué à la vision de la NASA sur l’IA pour la biologie spatiale et a reçu des prix d’innovation. Il détient un Master of Science en Intelligence Artificielle de Georgia Tech, obtenu avec mention. De plus, en tant que professeur universitaire, il a enseigné des cours sur l’apprentissage automatique, le big data et la science génomique.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler

Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)