Le Parlement européen approuve le projet de loi sur l'intelligence artificielle exigeant la divulgation du droit d'auteur sur les données de formation à l'IA générative
Les fournisseurs de modèles sous-jacents seront tenus de déclarer s'ils utilisent du matériel protégé par le droit d'auteur pour former l'IA. Pour les entreprises technologiques telles que Google et Microsoft, les amendes pourraient atteindre des milliards de dollars en cas de violation.
• La prochaine étape consiste en des négociations tripartites impliquant les États membres, les parlements et la Commission européenne. Un sujet de discorde majeur est l'utilisation de la reconnaissance faciale. Le Parlement européen a voté pour interdire l'utilisation de la reconnaissance faciale en temps réel, mais des questions subsistent quant à savoir si des exemptions devraient être autorisées à des fins de sécurité nationale et à d'autres fins d'application de la loi.
Le 14 juin, heure locale, lors de la session plénière du Parlement européen qui s'est tenue à Strasbourg, en France, les membres ont participé à la réunion de vote sur le "projet de loi sur l'intelligence artificielle".
Le 14 juin, heure locale, la "loi sur l'intelligence artificielle (loi sur l'IA)" de l'Union européenne a franchi une étape importante en vue de devenir loi : le Parlement européen a voté pour adopter le projet de loi, interdisant la reconnaissance faciale en temps réel et imposant des restrictions sur les outils d'intelligence artificielle générative. tels que ChatGPT. De nouvelles exigences de transparence sont introduites.
Le projet de loi sur l'IA entrera désormais dans les phases finales avant le lancement de la réglementation dans l'UE. Les responsables tenteront de parvenir à un compromis sur le projet de loi avec l'exécutif européen et les États membres, où des divergences subsistent. Le processus législatif doit être achevé en janvier si le projet de loi doit entrer en vigueur avant les élections européennes de l'année prochaine.
"Ce moment est très important", a déclaré à TIME Daniel Leufer, analyste politique principal spécialisé dans l'intelligence artificielle au bureau bruxellois d'Access Now. monde."
La version approuvée par l'UE de la loi propose que toute IA appliquée à des cas d'utilisation "à haut risque" tels que l'emploi, le contrôle des frontières et l'éducation doit se conformer à une série d'exigences de sécurité, y compris l'évaluation des risques, la garantie de la transparence et la soumission de l'enregistrement. Le projet de loi ne considérerait pas automatiquement l'IA "à usage général" telle que ChatGPT comme un risque élevé, mais imposerait des exigences de transparence et d'évaluation des risques sur les "modèles de base" ou de puissants systèmes d'IA formés sur de grandes quantités de données. Par exemple, les fournisseurs des modèles sous-jacents, dont OpenAI, Google et Microsoft, devront déclarer s'ils ont utilisé du matériel protégé par le droit d'auteur pour former l'IA. Cependant, il n'y a pas d'exigence similaire pour déclarer si des données personnelles sont utilisées pendant la formation.
** Comment fonctionnent ces règles ? **
Proposée pour la première fois en 2021, la "loi sur l'intelligence artificielle" de l'Union européenne s'appliquera à tout produit ou service utilisant des systèmes d'intelligence artificielle.
Le projet de loi classe les systèmes d'IA en fonction de 4 niveaux de risque, de minime à inacceptable. Les applications à haut risque, telles que le recrutement et la technologie ciblant les enfants, seront soumises à des exigences plus strictes, notamment une plus grande transparence et l'utilisation de données précises.
L'un des principaux objectifs de l'UE est de se prémunir contre toute menace pour la santé et la sécurité posée par l'intelligence artificielle et de protéger les droits et valeurs fondamentaux.
Cela signifie que certaines utilisations de l'IA sont absolument interdites, telles que les systèmes de "notation sociale" qui jugent les personnes en fonction de leur comportement, et l'IA qui exploite les groupes vulnérables (y compris les enfants) ou utilise des manipulations subconscientes qui pourraient causer des dommages, comme encourager les comportements dangereux interactifs. outil de dialogue. Les outils de police prédictive utilisés pour prédire qui commet des crimes seront également interdits.
En outre, les systèmes d'IA utilisés dans des catégories telles que l'emploi et l'éducation qui affectent le cours de la vie d'une personne seront soumis à des exigences strictes, telles que la transparence pour les utilisateurs et la prise de mesures pour évaluer et réduire le risque de biais posé par les algorithmes.
La plupart des systèmes d'intelligence artificielle, tels que les jeux vidéo ou les filtres anti-spam, entrent dans la catégorie à faible risque ou sans risque, a déclaré la Commission européenne.
Un sujet de discorde majeur est l'utilisation de la reconnaissance faciale. Le Parlement européen a voté pour interdire l'utilisation de la reconnaissance faciale en temps réel, mais des questions subsistent quant à savoir si des exemptions devraient être autorisées à des fins de sécurité nationale et à d'autres fins d'application de la loi. Une autre règle interdirait aux entreprises de récupérer les données biométriques des médias sociaux pour créer des bases de données.
Le même jour, un groupe de législateurs de droite au Parlement européen a tenté à la dernière minute d'annuler l'interdiction de la reconnaissance faciale en temps réel proposée par le projet de loi, mais les législateurs l'ont rejetée.
L'application des règles dépendra des 27 États membres de l'UE. Les régulateurs pourraient obliger les entreprises à retirer des applications du marché. Dans les cas extrêmes, les violations peuvent entraîner des amendes pouvant atteindre 30 millions d'euros (environ 33 millions de dollars) ou 6 % du chiffre d'affaires mondial annuel d'une entreprise, et pour les entreprises technologiques comme Google et Microsoft, les amendes peuvent atteindre des milliards de dollars.
Quelle est la relation entre ** et ChatGPT ? **
La mesure initiale du projet de loi parlait peu des chatbots, exigeant seulement qu'ils soient étiquetés pour que les utilisateurs sachent qu'ils interagissaient avec une machine. Les négociateurs ont ensuite ajouté des dispositions pour couvrir les AGI populaires comme ChatGPT, faisant en sorte que la technologie réponde à certaines des mêmes exigences que les systèmes à haut risque.
Un ajout clé est que le projet de loi exige une documentation approfondie de tout matériel protégé par le droit d'auteur utilisé pour entraîner les systèmes d'IA à générer du texte, des images, des vidéos et de la musique similaires aux œuvres humaines. Cela permettra aux créateurs de contenu de savoir si leurs articles de blog, livres électroniques, articles scientifiques ou chansons ont été utilisés pour former les algorithmes qui alimentent des systèmes comme ChatGPT. Ils peuvent alors décider si leur travail peut être copié et demander une compensation.
Certains experts préoccupés par les risques de sécurité posés par les modèles d'IA soutiennent que le projet de loi ne limite pas la puissance de calcul que les systèmes d'IA peuvent utiliser. À chaque nouvelle version, la quantité de calcul utilisée par un grand modèle de langage comme ChatGPT augmente de façon exponentielle, ce qui améliorera considérablement ses capacités et ses performances. "Plus il y a de calculs utilisés pour former un système d'IA, plus l'IA sera puissante. Plus la capacité est grande, plus le potentiel de risque et de danger est grand. " Andrea Mee, directrice de la stratégie et de la gouvernance chez AI security startup Conjecture Andrea Miotti dit Time.
Miotti a noté qu'il est relativement facile pour les chercheurs de mesurer la puissance de calcul totale d'un système car les puces utilisées pour former la plupart des IA de pointe sont une ressource physique.
** Pourquoi la réglementation européenne est-elle importante ? **
"Time" a souligné que l'UE n'est pas un acteur important dans le développement de l'intelligence artificielle de pointe. Ce rôle est joué par les États-Unis et la Chine, mais l'UE joue souvent le rôle de donner le ton. .
Les experts affirment que la taille même du marché unique de l'UE, avec 450 millions de consommateurs, permet aux entreprises de se conformer plus facilement, plutôt que de développer des produits différents pour différentes régions. En établissant des règles communes pour l'IA, l'UE tente également de développer le marché en instaurant la confiance des utilisateurs.
"Il s'agit d'une réglementation exécutoire et le fait que les entreprises seront tenues pour responsables est important", car des pays comme les États-Unis, Singapour et le Royaume-Uni n'ont fourni que "des orientations et des conseils", a déclaré Chris Shree, chercheur principal à la Commission irlandaise des libertés civiles. "D'autres pays voudront peut-être adapter et copier" les règles de l'UE, a déclaré Kris Shrisak, le directeur général du pays.
Certains autres pays accélèrent également le rythme de la réglementation. Par exemple, le Premier ministre britannique Rishi Sunak prévoit d'organiser cet automne un sommet mondial sur la sécurité de l'IA. "Je veux que le Royaume-Uni ne soit pas seulement un foyer intellectuel, mais un foyer géographique pour la réglementation mondiale de la sécurité de l'IA", a déclaré Sunak lors d'une conférence technologique cette semaine. sur le "Cadre multilatéral".
Francine Bennett, directrice par intérim de l'Ada Lovelace Institute, a déclaré au New York Times : "Les technologies en évolution rapide et rapidement réutilisées sont bien sûr difficiles à réglementer car même les entreprises qui développent la technologie ne savent pas comment les choses vont se dérouler. Mais ce sera certainement pire pour nous tous s'ils continuent à fonctionner sans réglementation adéquate."
Cependant, l'Association de l'industrie informatique et des communications soutient que l'UE devrait éviter une réglementation trop large qui étoufferait l'innovation. Boniface de Champris, responsable de la politique européenne de l'agence, a déclaré : "Les nouvelles règles européennes en matière d'IA doivent traiter efficacement des risques bien définis tout en donnant aux développeurs suffisamment de flexibilité pour fournir des applications d'IA au profit des Européens".
**Et après? **
Cela pourrait prendre des années pour que le projet de loi entre pleinement en vigueur. La prochaine étape consiste en des pourparlers tripartites impliquant les États membres, le Parlement et la Commission européenne, qui pourraient faire face à d'autres changements avant d'essayer de s'entendre sur le libellé.
Dans la phase à venir du dialogue tripartite, le Conseil européen, qui représente les gouvernements des États membres, devrait préconiser fortement d'exempter les outils d'IA utilisés par les forces de l'ordre et les forces frontalières de l'exigence des systèmes "à haut risque", selon Ruffo.
Le projet de loi devrait recevoir l'approbation finale d'ici la fin de l'année, suivie d'une période de grâce pour que les entreprises et les organisations s'adaptent, généralement autour de deux ans. Mais Brando Benifei, un membre italien du Parlement européen qui dirige les travaux sur le projet de loi, a déclaré qu'il ferait pression pour des règles permettant une adoption plus rapide de technologies à croissance rapide telles que l'IA générative.
Pour combler les lacunes avant que la législation n'entre en vigueur, l'Europe et les États-Unis rédigent un code de conduite volontaire que les responsables ont promis fin mai de rédiger en quelques semaines et éventuellement d'étendre à d'autres "pays partageant les mêmes idées".
Voir l'original
Le contenu est fourni à titre de référence uniquement, il ne s'agit pas d'une sollicitation ou d'une offre. Aucun conseil en investissement, fiscalité ou juridique n'est fourni. Consultez l'Avertissement pour plus de détails sur les risques.
Le Parlement européen approuve le projet de loi sur l'intelligence artificielle exigeant la divulgation du droit d'auteur sur les données de formation à l'IA générative
Source: Le papier
Le journaliste Fang Xiao
Les fournisseurs de modèles sous-jacents seront tenus de déclarer s'ils utilisent du matériel protégé par le droit d'auteur pour former l'IA. Pour les entreprises technologiques telles que Google et Microsoft, les amendes pourraient atteindre des milliards de dollars en cas de violation.
• La prochaine étape consiste en des négociations tripartites impliquant les États membres, les parlements et la Commission européenne. Un sujet de discorde majeur est l'utilisation de la reconnaissance faciale. Le Parlement européen a voté pour interdire l'utilisation de la reconnaissance faciale en temps réel, mais des questions subsistent quant à savoir si des exemptions devraient être autorisées à des fins de sécurité nationale et à d'autres fins d'application de la loi.
Le 14 juin, heure locale, la "loi sur l'intelligence artificielle (loi sur l'IA)" de l'Union européenne a franchi une étape importante en vue de devenir loi : le Parlement européen a voté pour adopter le projet de loi, interdisant la reconnaissance faciale en temps réel et imposant des restrictions sur les outils d'intelligence artificielle générative. tels que ChatGPT. De nouvelles exigences de transparence sont introduites.
Le projet de loi sur l'IA entrera désormais dans les phases finales avant le lancement de la réglementation dans l'UE. Les responsables tenteront de parvenir à un compromis sur le projet de loi avec l'exécutif européen et les États membres, où des divergences subsistent. Le processus législatif doit être achevé en janvier si le projet de loi doit entrer en vigueur avant les élections européennes de l'année prochaine.
"Ce moment est très important", a déclaré à TIME Daniel Leufer, analyste politique principal spécialisé dans l'intelligence artificielle au bureau bruxellois d'Access Now. monde."
La version approuvée par l'UE de la loi propose que toute IA appliquée à des cas d'utilisation "à haut risque" tels que l'emploi, le contrôle des frontières et l'éducation doit se conformer à une série d'exigences de sécurité, y compris l'évaluation des risques, la garantie de la transparence et la soumission de l'enregistrement. Le projet de loi ne considérerait pas automatiquement l'IA "à usage général" telle que ChatGPT comme un risque élevé, mais imposerait des exigences de transparence et d'évaluation des risques sur les "modèles de base" ou de puissants systèmes d'IA formés sur de grandes quantités de données. Par exemple, les fournisseurs des modèles sous-jacents, dont OpenAI, Google et Microsoft, devront déclarer s'ils ont utilisé du matériel protégé par le droit d'auteur pour former l'IA. Cependant, il n'y a pas d'exigence similaire pour déclarer si des données personnelles sont utilisées pendant la formation.
** Comment fonctionnent ces règles ? **
Proposée pour la première fois en 2021, la "loi sur l'intelligence artificielle" de l'Union européenne s'appliquera à tout produit ou service utilisant des systèmes d'intelligence artificielle.
Le projet de loi classe les systèmes d'IA en fonction de 4 niveaux de risque, de minime à inacceptable. Les applications à haut risque, telles que le recrutement et la technologie ciblant les enfants, seront soumises à des exigences plus strictes, notamment une plus grande transparence et l'utilisation de données précises.
L'un des principaux objectifs de l'UE est de se prémunir contre toute menace pour la santé et la sécurité posée par l'intelligence artificielle et de protéger les droits et valeurs fondamentaux.
Cela signifie que certaines utilisations de l'IA sont absolument interdites, telles que les systèmes de "notation sociale" qui jugent les personnes en fonction de leur comportement, et l'IA qui exploite les groupes vulnérables (y compris les enfants) ou utilise des manipulations subconscientes qui pourraient causer des dommages, comme encourager les comportements dangereux interactifs. outil de dialogue. Les outils de police prédictive utilisés pour prédire qui commet des crimes seront également interdits.
En outre, les systèmes d'IA utilisés dans des catégories telles que l'emploi et l'éducation qui affectent le cours de la vie d'une personne seront soumis à des exigences strictes, telles que la transparence pour les utilisateurs et la prise de mesures pour évaluer et réduire le risque de biais posé par les algorithmes.
La plupart des systèmes d'intelligence artificielle, tels que les jeux vidéo ou les filtres anti-spam, entrent dans la catégorie à faible risque ou sans risque, a déclaré la Commission européenne.
Un sujet de discorde majeur est l'utilisation de la reconnaissance faciale. Le Parlement européen a voté pour interdire l'utilisation de la reconnaissance faciale en temps réel, mais des questions subsistent quant à savoir si des exemptions devraient être autorisées à des fins de sécurité nationale et à d'autres fins d'application de la loi. Une autre règle interdirait aux entreprises de récupérer les données biométriques des médias sociaux pour créer des bases de données.
Le même jour, un groupe de législateurs de droite au Parlement européen a tenté à la dernière minute d'annuler l'interdiction de la reconnaissance faciale en temps réel proposée par le projet de loi, mais les législateurs l'ont rejetée.
L'application des règles dépendra des 27 États membres de l'UE. Les régulateurs pourraient obliger les entreprises à retirer des applications du marché. Dans les cas extrêmes, les violations peuvent entraîner des amendes pouvant atteindre 30 millions d'euros (environ 33 millions de dollars) ou 6 % du chiffre d'affaires mondial annuel d'une entreprise, et pour les entreprises technologiques comme Google et Microsoft, les amendes peuvent atteindre des milliards de dollars.
Quelle est la relation entre ** et ChatGPT ? **
La mesure initiale du projet de loi parlait peu des chatbots, exigeant seulement qu'ils soient étiquetés pour que les utilisateurs sachent qu'ils interagissaient avec une machine. Les négociateurs ont ensuite ajouté des dispositions pour couvrir les AGI populaires comme ChatGPT, faisant en sorte que la technologie réponde à certaines des mêmes exigences que les systèmes à haut risque.
Un ajout clé est que le projet de loi exige une documentation approfondie de tout matériel protégé par le droit d'auteur utilisé pour entraîner les systèmes d'IA à générer du texte, des images, des vidéos et de la musique similaires aux œuvres humaines. Cela permettra aux créateurs de contenu de savoir si leurs articles de blog, livres électroniques, articles scientifiques ou chansons ont été utilisés pour former les algorithmes qui alimentent des systèmes comme ChatGPT. Ils peuvent alors décider si leur travail peut être copié et demander une compensation.
Certains experts préoccupés par les risques de sécurité posés par les modèles d'IA soutiennent que le projet de loi ne limite pas la puissance de calcul que les systèmes d'IA peuvent utiliser. À chaque nouvelle version, la quantité de calcul utilisée par un grand modèle de langage comme ChatGPT augmente de façon exponentielle, ce qui améliorera considérablement ses capacités et ses performances. "Plus il y a de calculs utilisés pour former un système d'IA, plus l'IA sera puissante. Plus la capacité est grande, plus le potentiel de risque et de danger est grand. " Andrea Mee, directrice de la stratégie et de la gouvernance chez AI security startup Conjecture Andrea Miotti dit Time.
Miotti a noté qu'il est relativement facile pour les chercheurs de mesurer la puissance de calcul totale d'un système car les puces utilisées pour former la plupart des IA de pointe sont une ressource physique.
** Pourquoi la réglementation européenne est-elle importante ? **
"Time" a souligné que l'UE n'est pas un acteur important dans le développement de l'intelligence artificielle de pointe. Ce rôle est joué par les États-Unis et la Chine, mais l'UE joue souvent le rôle de donner le ton. .
Les experts affirment que la taille même du marché unique de l'UE, avec 450 millions de consommateurs, permet aux entreprises de se conformer plus facilement, plutôt que de développer des produits différents pour différentes régions. En établissant des règles communes pour l'IA, l'UE tente également de développer le marché en instaurant la confiance des utilisateurs.
"Il s'agit d'une réglementation exécutoire et le fait que les entreprises seront tenues pour responsables est important", car des pays comme les États-Unis, Singapour et le Royaume-Uni n'ont fourni que "des orientations et des conseils", a déclaré Chris Shree, chercheur principal à la Commission irlandaise des libertés civiles. "D'autres pays voudront peut-être adapter et copier" les règles de l'UE, a déclaré Kris Shrisak, le directeur général du pays.
Certains autres pays accélèrent également le rythme de la réglementation. Par exemple, le Premier ministre britannique Rishi Sunak prévoit d'organiser cet automne un sommet mondial sur la sécurité de l'IA. "Je veux que le Royaume-Uni ne soit pas seulement un foyer intellectuel, mais un foyer géographique pour la réglementation mondiale de la sécurité de l'IA", a déclaré Sunak lors d'une conférence technologique cette semaine. sur le "Cadre multilatéral".
Francine Bennett, directrice par intérim de l'Ada Lovelace Institute, a déclaré au New York Times : "Les technologies en évolution rapide et rapidement réutilisées sont bien sûr difficiles à réglementer car même les entreprises qui développent la technologie ne savent pas comment les choses vont se dérouler. Mais ce sera certainement pire pour nous tous s'ils continuent à fonctionner sans réglementation adéquate."
Cependant, l'Association de l'industrie informatique et des communications soutient que l'UE devrait éviter une réglementation trop large qui étoufferait l'innovation. Boniface de Champris, responsable de la politique européenne de l'agence, a déclaré : "Les nouvelles règles européennes en matière d'IA doivent traiter efficacement des risques bien définis tout en donnant aux développeurs suffisamment de flexibilité pour fournir des applications d'IA au profit des Européens".
**Et après? **
Cela pourrait prendre des années pour que le projet de loi entre pleinement en vigueur. La prochaine étape consiste en des pourparlers tripartites impliquant les États membres, le Parlement et la Commission européenne, qui pourraient faire face à d'autres changements avant d'essayer de s'entendre sur le libellé.
Dans la phase à venir du dialogue tripartite, le Conseil européen, qui représente les gouvernements des États membres, devrait préconiser fortement d'exempter les outils d'IA utilisés par les forces de l'ordre et les forces frontalières de l'exigence des systèmes "à haut risque", selon Ruffo.
Le projet de loi devrait recevoir l'approbation finale d'ici la fin de l'année, suivie d'une période de grâce pour que les entreprises et les organisations s'adaptent, généralement autour de deux ans. Mais Brando Benifei, un membre italien du Parlement européen qui dirige les travaux sur le projet de loi, a déclaré qu'il ferait pression pour des règles permettant une adoption plus rapide de technologies à croissance rapide telles que l'IA générative.
Pour combler les lacunes avant que la législation n'entre en vigueur, l'Europe et les États-Unis rédigent un code de conduite volontaire que les responsables ont promis fin mai de rédiger en quelques semaines et éventuellement d'étendre à d'autres "pays partageant les mêmes idées".