Le Minnesota envisage d’interdire les applications d’IA qui génèrent de fausses images nues

En résumé

  • Les législateurs du Minnesota ont adopté un projet de loi interdisant les outils d’IA qui génèrent des images nues fausses.
  • Les contrevenants risquent jusqu’à 500 000 $ par utilisation et des dommages-intérêts triples potentiels.
  • La loi maintient les protections de la section 230 et entrera en vigueur le 1er août si elle est signée en loi.

Les législateurs du Minnesota ont adopté un projet de loi visant à arrêter une forme croissante d’abus d’IA en ciblant les plateformes qui la permettent. Jeudi, le Sénat du Minnesota a voté 65-0 pour adopter le House File 1606, l’envoyant au gouverneur Tim Walz pour sa signature. La mesure interdit aux sites web et applications d’offrir des outils qui génèrent des images nues fausses réalistes de personnes identifiables. Selon le projet de loi, les entreprises qui contrôlent un site web, une application ou un service logiciel ne peuvent pas permettre aux utilisateurs d’accéder ou d’utiliser des outils pour créer ces images ou les générer au nom d’un utilisateur. La publicité ou la promotion de tels services est également interdite.

La mesure permet aux victimes de poursuivre les personnes ou entreprises qui exploitent ou contrôlent des outils de nudification, tels que des sites web, applications ou logiciels qui génèrent des images nues fausses. Les personnes représentées dans des images nues générées par IA peuvent demander des dommages-intérêts, y compris pour détresse mentale, et les tribunaux peuvent accorder jusqu’à trois fois les dommages réels, ainsi que des dommages punitifs, les frais d’avocat et des ordres pour arrêter la conduite.  La loi donne également au procureur général de l’État le pouvoir de faire respecter la loi, avec des pénalités civiles pouvant aller jusqu’à 500 000 $ par utilisation. Selon le projet de loi, ces pénalités sont versées dans le fonds général de l’État puis allouées aux services aux victimes, y compris le soutien aux survivants d’agressions sexuelles, de violences domestiques et de maltraitance infantile. La loi cible les outils qui nécessitent peu d’expertise technique et qui sont devenus largement accessibles, y compris aux mineurs. Si elle est signée, la loi entrera en vigueur le 1er août et s’appliquera aux nouvelles affaires à partir de cette date.

Bien que le nouveau projet de loi ne fasse référence à aucun développeur d’IA en particulier, la nouvelle intervient après une série d’incidents très médiatisés sur la plateforme sociale X, notamment en août 2025, lorsque l’outil xAI d’Elon Musk, Grok, a généré des deepfakes nues de Taylor Swift. La superstar du pop a déposé une demande de marque pour sa voix et son image auprès de l’Office américain des brevets en avril, peut-être pour prévenir de futures reproductions par IA. Musk fait également face à une pression juridique croissante, notamment une action collective fédérale intentée par trois mineurs du Tennessee alléguant que Grok a généré du contenu sexuel d’abus sur des enfants à partir de leurs images. De plus, une action en protection des consommateurs de la ville de Baltimore affirme que l’entreprise a déployé en connaissance de cause un système produisant et diffusant du contenu sexuel non consensuel, y compris impliquant des mineurs. Le co-président de Public Citizen, Robert Weissman, a déclaré que la propagation de ces outils reflète la rapidité avec laquelle l’IA a abaissé la barrière pour créer des images intimes non consensuelles et en a étendu la portée. « Ces applications ciblent à 99 % les femmes, dont plus de 90 % ont moins de 18 ans. C’est un outil d’intimidation et de harcèlement des femmes avec de graves conséquences psychologiques », a déclaré Weissman à Decrypt. « Vous avez vu cela à travers le pays et le monde. Donc, le besoin d’intervention et de régulation gouvernementale est urgent. » Weissman a ajouté que les lois au niveau des États peuvent jouer un rôle aux côtés des efforts fédéraux, notamment en ce qui concerne l’application. Il a dit que les autorités locales peuvent être mieux placées pour agir rapidement dans des cas individuels, tandis que les agences fédérales peuvent ne pas prioriser ou poursuivre ces affaires. La loi du Minnesota intervient également dans un contexte de lutte continue entre l’administration du président Donald Trump et les États sur la régulation de l’IA. La Take It Down Act, signée en loi par le président Donald Trump en mai 2025, criminalise la distribution d’images intimes non consensuelles et offre aux victimes une voie pour demander des dommages civils. « Je pense que l’existence de normes fédérales et étatiques complémentaires est positive, en particulier en théorie. Nous parlons de systèmes et d’agences d’application différents », a déclaré Weissman. « Vous pourriez avoir une norme fédérale, mais ne pas avoir la capacité fédérale d’agir en matière d’application. » Le bureau du gouverneur Walz n’a pas immédiatement répondu à la demande de Decrypt de commentaire.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler