La loi sur l’IA est encore au stade de projet, mais les investisseurs et les entrepreneurs en Europe sont déjà nerveux quant aux résultats possibles.
Empêchera-t-elle l’Union européenne de rester un concurrent précieux sur la scène mondiale ?
Selon les régulateurs, ce n’est pas le cas. Mais voyons ce qui se passe.
Loi sur l’IA et évaluation des risques
La loi sur l’IA divise les risques posés par l’intelligence artificielle en différentes catégories, mais avant cela, elle limite la définition de l’intelligence artificielle à ceux systèmes basés sur l’apprentissage automatique et la logique.
Cela ne sert pas seulement à différencier les systèmes d’IA des logiciels plus simples, mais aussi à comprendre pourquoi l’UE souhaite catégoriser les risques.
Les différentes utilisations de l’IA sont classées en risque inacceptable, un risque élevé et risque faible ou minimal. Les pratiques relevant du risque inacceptable sont considérées comme interdites.
Ce type de pratiques inclut :
Pratiques impliquant des techniques qui agissent au-delà de la conscience d’une personne,
Pratiques visant à exploiter des parties vulnérables de la population,
Systèmes basés sur l’IA mis en place pour classer les personnes selon des caractéristiques ou comportements personnels,
Systèmes basés sur l’IA utilisant l’identification biométrique dans les espaces publics.
Il existe certains cas d’utilisation, qui devraient être considérés comme similaires à certaines pratiques incluses dans les activités interdites, relevant de la catégorie des « pratiques à haut risque ».
Cela inclut les systèmes utilisés pour recruter des travailleurs ou pour évaluer et analyser la solvabilité des personnes (ce qui pourrait être dangereux pour la fintech). Dans ces cas, toutes les entreprises qui créent ou utilisent ce type de système doivent produire des rapports détaillés pour expliquer le fonctionnement du système et les mesures prises pour éviter les risques pour les personnes et assurer une transparence maximale.
Tout semble clair et correct, mais il y a certains problèmes que les régulateurs devraient aborder.
La loi semble trop générique
L’un des aspects qui inquiètent le plus les entrepreneurs et investisseurs est le manque d’attention portée à des secteurs spécifiques de l’IA.
Par exemple, les entreprises qui produisent et utilisent des systèmes d’IA à des fins générales pourraient être considérées comme celles qui utilisent l’intelligence artificielle pour des cas d’usage à haut risque.
Cela signifie qu’elles devraient produire des rapports détaillés, ce qui coûte du temps et de l’argent. Étant donné que les PME ne font pas exception, et qu’elles constituent la majorité des économies européennes, elles pourraient devenir moins compétitives avec le temps.
Et c’est précisément la différence entre les entreprises d’IA américaines et européennes qui soulève de grandes inquiétudes : en effet, l’Europe ne dispose pas de grandes entreprises d’IA comme aux États-Unis, car l’environnement de l’IA en Europe est principalement créé par des PME et des startups.
Selon une enquête menée par appliedAI, une large majorité d’investisseurs éviteraient d’investir dans des startups qualifiées de « à haut risque », précisément à cause de la complexité de cette classification.
ChatGPT a changé les plans de l’UE
Les régulateurs européens auraient dû clôturer le document le 19 avril, mais la discussion sur les différentes définitions des systèmes d’IA et leurs cas d’usage a retardé la livraison du projet final.
De plus, les entreprises technologiques ont montré que toutes ne sont pas d’accord avec la version actuelle du document.
Le point qui a surtout causé des retards est la différenciation entre modèles de fondation et IA à usage général.
Un exemple de modèles de fondation en IA est ChatGPT d’OpenAI : ces systèmes sont entraînés à l’aide de grandes quantités de données et peuvent générer tout type de sortie.
L’IA à usage général inclut ces systèmes qui peuvent être adaptés à différents cas d’usage et secteurs.
Les régulateurs européens veulent réglementer strictement les modèles de fondation, car ils pourraient poser plus de risques et affecter négativement la vie des gens.
Comment les États-Unis et la Chine réglementent l’IA
Si l’on regarde comment les régulateurs européens traitent l’IA, quelque chose ressort : il semble que les régulateurs soient moins disposés à coopérer.
Aux États-Unis, par exemple, l’administration Biden a sollicité des commentaires publics sur la sécurité de systèmes comme ChatGPT, avant de concevoir un cadre réglementaire potentiel.
En Chine, le gouvernement réglemente l’IA et la collecte de données depuis des années, et sa principale préoccupation reste la stabilité sociale.
Jusqu’à présent, le pays qui semble bien positionné en matière de réglementation de l’IA est le Royaume-Uni, qui a opté pour une approche « légère » — mais il n’est pas secret que le Royaume-Uni souhaite devenir un leader dans l’adoption de l’IA et de la fintech.
Fintech et la loi sur l’IA
En ce qui concerne les entreprises et startups fournissant des services financiers, la situation est encore plus compliquée.
En effet, si la loi reste dans sa version actuelle, les fintechs devront non seulement se conformer aux réglementations financières en vigueur, mais aussi à ce nouveau cadre réglementaire.
Le fait que l’évaluation de la solvabilité puisse être considérée comme un cas d’usage à haut risque n’est qu’un exemple du fardeau que devront porter les fintechs, ce qui pourrait les empêcher d’être aussi flexibles qu’elles l’ont été jusqu’à présent, pour attirer des investissements et rester compétitives.
Conclusion
Comme l’a souligné Peter Sarlin, PDG de Silo AI, le problème ne réside pas dans la réglementation, mais dans une mauvaise réglementation.
Être trop générique pourrait nuire à l’innovation et à toutes les entreprises impliquées dans la production, la distribution et l’utilisation de produits et services basés sur l’IA.
Si les investisseurs européens s’inquiètent des risques potentiels liés à une étiquette indiquant qu’une startup ou une entreprise appartient à la catégorie « à haut risque », l’environnement de l’IA dans l’Union européenne pourrait en pâtir, tandis que les États-Unis recherchent des commentaires publics pour améliorer leur technologie et que la Chine a déjà une opinion claire sur la façon de réglementer l’intelligence artificielle.
Selon Robin Röhm, cofondateur d’Apheris, l’un des scénarios possibles est que les startups migrent vers les États-Unis — un pays qui a peut-être beaucoup à perdre en matière de blockchain et de cryptomonnaies, mais qui pourrait remporter la course à l’IA.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
L'IA en Europe : ce que pourrait signifier la loi sur l'IA
Photo de Maico Amorim sur Unsplash
La loi sur l’IA est encore au stade de projet, mais les investisseurs et les entrepreneurs en Europe sont déjà nerveux quant aux résultats possibles.
Empêchera-t-elle l’Union européenne de rester un concurrent précieux sur la scène mondiale ?
Selon les régulateurs, ce n’est pas le cas. Mais voyons ce qui se passe.
Loi sur l’IA et évaluation des risques
La loi sur l’IA divise les risques posés par l’intelligence artificielle en différentes catégories, mais avant cela, elle limite la définition de l’intelligence artificielle à ceux systèmes basés sur l’apprentissage automatique et la logique.
Cela ne sert pas seulement à différencier les systèmes d’IA des logiciels plus simples, mais aussi à comprendre pourquoi l’UE souhaite catégoriser les risques.
Les différentes utilisations de l’IA sont classées en risque inacceptable, un risque élevé et
risque faible ou minimal. Les pratiques relevant du risque inacceptable sont considérées comme interdites.
Ce type de pratiques inclut :
Il existe certains cas d’utilisation, qui devraient être considérés comme similaires à certaines pratiques incluses dans les activités interdites, relevant de la catégorie des « pratiques à haut risque ».
Cela inclut les systèmes utilisés pour recruter des travailleurs ou pour évaluer et analyser la solvabilité des personnes (ce qui pourrait être dangereux pour la fintech). Dans ces cas, toutes les entreprises qui créent ou utilisent ce type de système doivent produire des rapports détaillés pour expliquer le fonctionnement du système et les mesures prises pour éviter les risques pour les personnes et assurer une transparence maximale.
Tout semble clair et correct, mais il y a certains problèmes que les régulateurs devraient aborder.
La loi semble trop générique
L’un des aspects qui inquiètent le plus les entrepreneurs et investisseurs est le manque d’attention portée à des secteurs spécifiques de l’IA.
Par exemple, les entreprises qui produisent et utilisent des systèmes d’IA à des fins générales pourraient être considérées comme celles qui utilisent l’intelligence artificielle pour des cas d’usage à haut risque.
Cela signifie qu’elles devraient produire des rapports détaillés, ce qui coûte du temps et de l’argent. Étant donné que les PME ne font pas exception, et qu’elles constituent la majorité des économies européennes, elles pourraient devenir moins compétitives avec le temps.
Et c’est précisément la différence entre les entreprises d’IA américaines et européennes qui soulève de grandes inquiétudes : en effet, l’Europe ne dispose pas de grandes entreprises d’IA comme aux États-Unis, car l’environnement de l’IA en Europe est principalement créé par des PME et des startups.
Selon une enquête menée par appliedAI, une large majorité d’investisseurs éviteraient d’investir dans des startups qualifiées de « à haut risque », précisément à cause de la complexité de cette classification.
ChatGPT a changé les plans de l’UE
Les régulateurs européens auraient dû clôturer le document le 19 avril, mais la discussion sur les différentes définitions des systèmes d’IA et leurs cas d’usage a retardé la livraison du projet final.
De plus, les entreprises technologiques ont montré que toutes ne sont pas d’accord avec la version actuelle du document.
Le point qui a surtout causé des retards est la différenciation entre modèles de fondation et IA à usage général.
Un exemple de modèles de fondation en IA est ChatGPT d’OpenAI : ces systèmes sont entraînés à l’aide de grandes quantités de données et peuvent générer tout type de sortie.
L’IA à usage général inclut ces systèmes qui peuvent être adaptés à différents cas d’usage et secteurs.
Les régulateurs européens veulent réglementer strictement les modèles de fondation, car ils pourraient poser plus de risques et affecter négativement la vie des gens.
Comment les États-Unis et la Chine réglementent l’IA
Si l’on regarde comment les régulateurs européens traitent l’IA, quelque chose ressort : il semble que les régulateurs soient moins disposés à coopérer.
Aux États-Unis, par exemple, l’administration Biden a sollicité des commentaires publics sur la sécurité de systèmes comme ChatGPT, avant de concevoir un cadre réglementaire potentiel.
En Chine, le gouvernement réglemente l’IA et la collecte de données depuis des années, et sa principale préoccupation reste la stabilité sociale.
Jusqu’à présent, le pays qui semble bien positionné en matière de réglementation de l’IA est le Royaume-Uni, qui a opté pour une approche « légère » — mais il n’est pas secret que le Royaume-Uni souhaite devenir un leader dans l’adoption de l’IA et de la fintech.
Fintech et la loi sur l’IA
En ce qui concerne les entreprises et startups fournissant des services financiers, la situation est encore plus compliquée.
En effet, si la loi reste dans sa version actuelle, les fintechs devront non seulement se conformer aux réglementations financières en vigueur, mais aussi à ce nouveau cadre réglementaire.
Le fait que l’évaluation de la solvabilité puisse être considérée comme un cas d’usage à haut risque n’est qu’un exemple du fardeau que devront porter les fintechs, ce qui pourrait les empêcher d’être aussi flexibles qu’elles l’ont été jusqu’à présent, pour attirer des investissements et rester compétitives.
Conclusion
Comme l’a souligné Peter Sarlin, PDG de Silo AI, le problème ne réside pas dans la réglementation, mais dans une mauvaise réglementation.
Être trop générique pourrait nuire à l’innovation et à toutes les entreprises impliquées dans la production, la distribution et l’utilisation de produits et services basés sur l’IA.
Si les investisseurs européens s’inquiètent des risques potentiels liés à une étiquette indiquant qu’une startup ou une entreprise appartient à la catégorie « à haut risque », l’environnement de l’IA dans l’Union européenne pourrait en pâtir, tandis que les États-Unis recherchent des commentaires publics pour améliorer leur technologie et que la Chine a déjà une opinion claire sur la façon de réglementer l’intelligence artificielle.
Selon Robin Röhm, cofondateur d’Apheris, l’un des scénarios possibles est que les startups migrent vers les États-Unis — un pays qui a peut-être beaucoup à perdre en matière de blockchain et de cryptomonnaies, mais qui pourrait remporter la course à l’IA.