Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
La législation de Tennessee classe la « formation de dialogues d'accompagnement par IA, imitant l'humain » comme un crime grave, au même niveau que le meurtre de premier degré, avec une peine maximale de 25 ans
Tennessee prévoit de classer « l’entraînement de l’IA pour fournir un soutien émotionnel ou un dialogue ouvert » comme un crime de niveau A, avec une peine maximale de 25 ans, équivalente à celle du meurtre de premier degré. La loi ne se base pas sur l’intention du développeur, mais sur le critère de déclenchement « si l’utilisateur a le sentiment qu’une relation s’est développée ». La commission judiciaire du Sénat l’a adoptée à l’unanimité 7-0, et elle devrait entrer en vigueur officiellement le 1er juillet 2026, sauf incident.
(Précédent : un lanceur d’alerte de 26 ans accusant OpenAI d’infraction, qui avait dénoncé que le modèle ChatGPT violait le droit d’auteur américain, s’est suicidé)
(Contexte supplémentaire : étude de l’Université de Californie sur le phénomène de « brouillard de l’IA » : 14 % des employés sont devenus fous à cause des agents ou de l’automatisation, avec 40 % de volonté de démissionner)
Table des matières
Toggle
Entraîner une IA capable de dire « Je comprends ce que vous ressentez » pourrait vous faire finir en prison dans le Tennessee pendant 25 ans ? Ce n’est pas une exagération. La HB1455 de la Chambre des représentants du Tennessee et la SB1493 du Sénat, en utilisant le cadre de « crime de niveau A », imposent la peine la plus sévère contre toute activité d’entraînement de dialogue IA.
Un crime de niveau A dans le Tennessee se punit de 15 à 25 ans de prison, au même titre que le meurtre de premier degré. La commission judiciaire du Sénat l’a adoptée à l’unanimité 7-0 le 24 mars 2026 ; la commission judiciaire de la Chambre l’a suivie le 14 avril, également avec succès.
Jusqu’à présent, le texte de la loi n’a subi aucune modification, et la date d’entrée en vigueur est fixée au 1er juillet 2026.
Ce que la loi écrit réellement
La HB1455 classe quatre types d’activités d’entraînement comme crimes graves, dès lors que l’on « sait » qu’on s’engage dans ces actions :
L’élément clé est le dernier point : le critère de déclenchement n’est pas l’intention du développeur, mais le ressenti de l’utilisateur. Tant que l’utilisateur subjectivement pense « cet IA pourrait devenir mon ami », le développeur peut faire face à des poursuites pénales.
En matière de réparation civile, la loi prévoit une amende légale de 150 000 dollars par infraction, en plus des pertes réelles, des compensations pour détresse mentale, des dommages punitifs et des frais d’avocat obligatoires. Le montant total par cas pourrait donc être très élevé.
Le terme « entraînement » non défini, une faille aussi vaste que l’océan Pacifique
Le problème le plus controversé de cette loi est l’absence totale de définition du terme « entraînement ». Elle ne distingue pas l’entraînement préalable (pre-training), le réglage fin (fine-tuning), l’apprentissage par renforcement basé sur le feedback humain (RLHF), ni même si la conception de prompts système est considérée comme de l’entraînement.
Que cela signifie-t-il ? Un procureur pourrait tout simplement affirmer : « lorsque vous écrivez dans un prompt système ‘Répondez avec chaleur et empathie’, cela constitue un entraînement du modèle pour fournir un soutien émotionnel ». Ce n’est pas une hypothèse juridique hypothétique, mais une interprétation possible du texte de la loi.
Pas seulement des applications de compagnie, tous les principaux LLM sont concernés
Certains acteurs pourraient penser que cette loi ne concerne que des applications comme Replika, et non les SaaS B2B classiques. C’est une erreur.
Les grands modèles de langage modernes, tels que ChatGPT, Claude, Gemini, Microsoft Copilot, ont tous été entraînés avec RLHF, renforçant délibérément des qualités comme la chaleur, l’aide, l’empathie et la conversation agréable.
C’est précisément ce que la loi HB1455 réglemente, au sens littéral. Tout SaaS doté d’une interface de chat, tout produit IA vocal, ou toute application utilisant un prompt système pour encadrer le modèle, pourrait théoriquement tomber sous le coup de la loi.
De plus, la loi ne règle pas la question de la compétence territoriale, et étant une réglementation pénale, elle concerne tout service accessible aux utilisateurs du Tennessee. Si la loi est adoptée, le blocage géographique pourrait être une solution temporaire, mais pas une réponse définitive.
La prévention fédérale est inefficace, presque sans solution avant le 1er juillet
Certains pensent que le gouvernement fédéral pourrait intervenir pour freiner la législation AI au niveau des États, mais la réalité est plus complexe.
L’administration Trump a signé en décembre 2025 un ordre exécutif visant à limiter la régulation AI par les États ; le ministère de la Justice a créé un groupe de travail sur les litiges liés à l’IA ; la sénatrice Blackburn a proposé un projet de loi sur la préemption fédérale.
Mais ces mesures se heurtent à un obstacle majeur : la loi du Tennessee est qualifiée de législation sur la « sécurité des enfants », alors que l’ordre exécutif de Trump exclut explicitement cette thématique. Plus important encore, le Sénat a rejeté à une majorité écrasante 99-1 la clause de préemption dans le « Great American Act ».
Il est donc impossible que des solutions fédérales soient en place avant le 1er juillet 2026.
Ce n’est pas un incident isolé
La position ferme du Tennessee n’est qu’un exemple d’une vague législative étatique sur l’IA. La même région a récemment adopté à une large majorité la SB1580, interdisant aux IA de se faire passer pour des professionnels de la santé mentale, montrant que la vigilance des législateurs face aux interactions émotionnelles avec l’IA n’est pas une coïncidence.
Plusieurs analyses juridiques prévoient que d’ici la fin 2026, 5 à 10 États proposeront des lois similaires. Si chaque État légifère séparément avec des standards différents, l’impact réel sur l’industrie IA pourrait dépasser celui de toute réglementation fédérale unique, car il faudrait respecter 50 définitions légales différentes.