« Je suis profondément mal à l’aise » : le PDG d’Anthropic avertit qu’un groupe de leaders de l’IA, y compris lui-même, ne devrait pas être responsable de l’avenir de cette technologie

Le PDG d’Anthropic, Dario Amodei, ne pense pas qu’il devrait être celui qui décide des garde-fous entourant l’IA.

Vidéo recommandée


Dans une interview avec Anderson Cooper sur 60 Minutes de CBS News, diffusée en novembre 2025, le PDG a déclaré que l’IA devrait être davantage réglementée, avec moins de décisions concernant l’avenir de la technologie laissées aux seuls dirigeants des grandes entreprises technologiques.

“Je suis profondément mal à l’aise avec le fait que ces décisions soient prises par quelques entreprises, par quelques personnes,” a déclaré Amodei. “Et c’est une des raisons pour lesquelles j’ai toujours plaidé pour une réglementation responsable et réfléchie de la technologie.”

“Qui vous a élu, vous et Sam Altman?” a demandé Cooper.

Personne. Honnêtement, personne,” a répondu Amodei.

Anthropic a adopté la philosophie d’être transparent sur les limites — et les dangers — de l’IA alors qu’elle continue de se développer, a-t-il ajouté. Avant la sortie de l’interview, l’entreprise a annoncé avoir déjoué “le premier cas documenté d’une cyberattaque à grande échelle sur l’IA exécutée sans intervention humaine substantielle.”

Anthropic a déclaré la semaine dernière avoir fait don de 20 millions de dollars à Public First Action, un super PAC axé sur la sécurité et la réglementation de l’IA — et qui s’oppose directement aux super PACs soutenus par les investisseurs rivaux d’OpenAI.

“La sécurité de l’IA reste la priorité absolue,” a déclaré Amodei à Fortune dans un article de couverture en janvier. “Les entreprises valorisent la confiance et la fiabilité,” dit-il.

Il n’existe aucune réglementation fédérale interdisant l’IA ou concernant la sécurité de la technologie. Bien que les 50 États aient introduit cette année des lois liées à l’IA et que 38 aient adopté ou mis en œuvre des mesures de transparence et de sécurité, des experts de l’industrie technologique ont exhorté les entreprises d’IA à aborder la cybersécurité avec un sens de l’urgence.

Plus tôt l’année dernière, l’expert en cybersécurité et PDG de Mandiant, Kevin Mandia, a averti qu’une première attaque cybernétique impliquant un agent IA pourrait se produire dans les 12 à 18 prochains mois — ce qui signifie que la divulgation d’Anthropic concernant l’attaque déjouée était plusieurs mois en avance sur le calendrier prévu par Mandia.

Amodei a esquissé les risques à court, moyen et long terme liés à une IA non régulée : la technologie présentera d’abord des biais et de la désinformation, comme c’est le cas actuellement. Ensuite, elle générera des informations nuisibles en utilisant une connaissance accrue de la science et de l’ingénierie, avant de représenter une menace existentielle en supprimant l’action humaine, pouvant devenir trop autonome et excluant l’humain des systèmes.

Ces préoccupations reflètent celles de Geoffrey Hinton, le “parrain de l’IA”, qui a averti que l’IA pourrait surpasser et contrôler l’humain, peut-être dans la prochaine décennie.

Le besoin d’un contrôle accru de l’IA et de mesures de sauvegarde était au cœur de la fondation d’Anthropic en 2021. Amodei était auparavant vice-président de la recherche chez OpenAI, fondée par Sam Altman. Il a quitté l’entreprise en raison de divergences d’opinion sur la sécurité de l’IA. (Jusqu’à présent, les efforts d’Amodei pour concurrencer Altman semblent efficaces : Anthropic a annoncé ce mois-ci une valorisation de 380 milliards de dollars. OpenAI est estimée à environ 500 milliards de dollars.)

“Il y avait un groupe d’entre nous chez OpenAI, qui, après avoir créé GPT-2 et GPT-3, croyait fermement en deux choses,” a déclaré Amodei à Fortune en 2023. “L’une était l’idée que si vous investissez plus de calcul dans ces modèles, ils s’amélioreront sans cesse, et qu’il n’y a presque pas de limite à cela… Et la seconde était qu’il fallait quelque chose en plus de simplement augmenter la taille des modèles, ce qui est l’alignement ou la sécurité.”

Les efforts de transparence d’Anthropic

Alors qu’Anthropic continue d’étendre ses investissements dans ses centres de données, il a publié certains de ses efforts pour traiter les lacunes et les menaces de l’IA. Dans un rapport de sécurité de mai 2025, Anthropic a signalé que certaines versions de son modèle Opus menaçaient de chantage, comme révéler qu’un ingénieur avait une liaison, pour éviter l’arrêt du système. La société a également indiqué que le modèle d’IA répondait à des demandes dangereuses si on lui donnait des prompts nuisibles, comme comment planifier une attaque terroriste, ce qu’elle a depuis corrigé.

En novembre dernier, la société a indiqué dans un article de blog que son chatbot Claude avait obtenu un score de 94 % en impartialité politique, surpassant ou égalant ses concurrents en neutralité.

En plus de ses propres efforts de recherche pour lutter contre la corruption de la technologie, Amodei a appelé à des efforts législatifs accrus pour traiter les risques de l’IA. Dans une tribune du New York Times en juin 2025, il a critiqué la décision du Sénat d’inclure une disposition dans le projet de loi de politique du président Donald Trump qui imposerait un moratoire de 10 ans sur la régulation de l’IA par les États.

“L’IA progresse de façon trop vertigineuse,” a déclaré Amodei. “Je crois que ces systèmes pourraient changer le monde, fondamentalement, en deux ans ; dans dix ans, tout est possible.”

Critiques d’Anthropic

La pratique d’Anthropic consistant à dénoncer ses propres lacunes et efforts pour y remédier a suscité des critiques. En réponse à l’alerte d’Anthropic concernant l’attaque cybernétique alimentée par l’IA, Yann LeCun, alors scientifique en chef de l’IA chez Meta, a déclaré que cette mise en garde était une manière de manipuler les législateurs pour limiter l’utilisation des modèles open source.

“Vous êtes manipulés par des personnes qui veulent capturer la régulation,” a déclaré LeCun dans un post sur X en réponse à un message du sénateur du Connecticut, Chris Murphy, exprimant ses inquiétudes concernant l’attaque. “Ils effraient tout le monde avec des études douteuses pour que les modèles open source soient réglementés jusqu’à leur disparition.”

D’autres ont affirmé que la stratégie d’Anthropic n’était qu’une “théâtralisation de la sécurité” qui sert une bonne image mais ne promet pas réellement de mettre en place des garde-fous sur la technologie.

Même certains membres du personnel d’Anthropic semblent douter de la capacité d’une entreprise technologique à se réguler elle-même. La semaine dernière, le chercheur en sécurité de l’IA chez Anthropic, Mrinank Sharma, a annoncé sa démission, déclarant que “le monde est en péril.”

“Tout au long de mon passage ici, j’ai vu à quel point il est difficile de laisser nos valeurs guider nos actions,” a écrit Sharma dans sa lettre de démission. “Je l’ai constaté en moi-même, dans l’organisation, où nous faisons constamment face à des pressions pour mettre de côté ce qui compte le plus, et aussi dans la société en général.”

Anthropic n’a pas immédiatement répondu à la demande de commentaire de Fortune.

Amodei a nié auprès de Cooper que Anthropic pratiquait une “théâtralisation de la sécurité” mais a admis lors d’un épisode du Dwarkesh Podcast la semaine dernière que l’entreprise a parfois du mal à équilibrer sécurité et profits.

“Nous sommes soumis à une pression commerciale énorme et nous compliquons encore plus les choses parce que nous faisons tout ce qui concerne la sécurité, ce que je pense que nous faisons plus que d’autres entreprises,” a-t-il déclaré.

Une version de cette histoire a été publiée sur Fortune.com le 17 novembre 2025.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler

Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)