Sam Altman, directeur général d’OpenAI Inc., lors du Sommet sur l’Impact de l’IA à New Delhi, en Inde, le jeudi 19 février 2026.
Prakash Singh | Bloomberg | Getty Images
Le PDG d’OpenAI, Sam Altman, a informé tard jeudi le personnel qu’il aimerait que l’entreprise « essaie d’aider à désamorcer la situation » entre le rival Anthropic et le Département de la Défense.
« Nous avons longtemps cru que l’IA ne devrait pas être utilisée pour la surveillance de masse ou les armes létales autonomes, et que les humains devraient rester impliqués dans les décisions automatisées à haut risque », a écrit Altman dans une note consultée par CNBC. « Ce sont nos principales lignes rouges. »
Anthropic a jusqu’à 17h01 (heure de l’Est) vendredi pour décider s’il acceptera de donner au Pentagone la permission d’utiliser ses modèles d’intelligence artificielle dans tous les cas d’utilisation légaux sans limitation. La startup souhaite une assurance que sa technologie ne sera pas utilisée pour des armes entièrement autonomes ou pour la surveillance de masse des Américains, mais le DOD n’a pas bougé.
La lettre interne d’Altman de jeudi visait à montrer qu’OpenAI partageait les limites d’Anthropic. Le Wall Street Journal a été le premier à rapporter cette note.
regarder maintenant
VIDÉO1:4801:48
Anthropic fait face à un combat « perdant-perdant » alors qu’il affronte le Pentagone
Tech
Avant la note d’Altman, les employés d’OpenAI avaient commencé à s’exprimer en soutien à Anthropic sur les réseaux sociaux. Environ 70 employés actuels ont signé une lettre ouverte intitulée « Nous ne serons pas divisés », qui vise à créer une « compréhension partagée et une solidarité face à cette pression » du département, selon son site web.
« Malgré toutes mes différences avec Anthropic, je leur fais principalement confiance en tant qu’entreprise, et je pense qu’ils se soucient vraiment de la sécurité, et j’ai été heureux qu’ils soutiennent nos combattants », a déclaré Altman à CNBC dans une interview vendredi. « Je ne sais pas où cela va mener. »
L’année dernière, OpenAI a obtenu un contrat de 200 millions de dollars du DOD, ce qui a permis à l’agence de commencer à utiliser les modèles de la startup dans des cas d’utilisation non classifiés. Anthropic a été le premier laboratoire d’IA à intégrer ses modèles dans des flux de travail de mission sur des réseaux classifiés.
Altman a déclaré qu’il verrait si OpenAI pouvait conclure un accord avec le DOD pour déployer ses modèles dans des environnements classifiés de manière « conforme à nos principes ». Il a indiqué que l’entreprise construirait des protections techniques et déploierait du personnel pour « s’assurer que tout fonctionne correctement ».
« Nous demanderions que le contrat couvre toute utilisation sauf celles qui sont illégales ou inadaptées aux déploiements en nuage, comme la surveillance domestique et les armes offensives autonomes », a écrit Altman.
Altman a indiqué qu’OpenAI avait eu des réunions sur le sujet ces derniers jours, et que l’entreprise n’avait pas encore pris de décision sur la marche à suivre. Il a ajouté que d’autres réunions auraient lieu avec les équipes de sécurité d’OpenAI vendredi.
« C’est un cas où il est important pour moi que nous fassions ce qui est juste, pas ce qui est facile et qui paraît fort mais est déloyal », a écrit Altman. « Mais je réalise que cela pourrait ne pas « paraître bien » pour nous à court terme, et qu’il y a beaucoup de nuances et de contexte. »
—_ Kate Rooney de CNBC a contribué à ce rapport. _
REGARDER : OpenAI clôture une levée de fonds de 110 milliards de dollars avec le soutien d’Amazon, Nvidia, Softbank
regarder maintenant
VIDÉO0:5300:53
OpenAI clôture une levée de fonds de 110 milliards de dollars avec le soutien d’Amazon, Nvidia, Softbank
Squawk Box
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Sam Altman vise à « aider à désescalader » les tensions avec le Pentagone alors que les employés d'OpenAI expriment leur soutien à Anthropic
Sam Altman, directeur général d’OpenAI Inc., lors du Sommet sur l’Impact de l’IA à New Delhi, en Inde, le jeudi 19 février 2026.
Prakash Singh | Bloomberg | Getty Images
Le PDG d’OpenAI, Sam Altman, a informé tard jeudi le personnel qu’il aimerait que l’entreprise « essaie d’aider à désamorcer la situation » entre le rival Anthropic et le Département de la Défense.
« Nous avons longtemps cru que l’IA ne devrait pas être utilisée pour la surveillance de masse ou les armes létales autonomes, et que les humains devraient rester impliqués dans les décisions automatisées à haut risque », a écrit Altman dans une note consultée par CNBC. « Ce sont nos principales lignes rouges. »
Anthropic a jusqu’à 17h01 (heure de l’Est) vendredi pour décider s’il acceptera de donner au Pentagone la permission d’utiliser ses modèles d’intelligence artificielle dans tous les cas d’utilisation légaux sans limitation. La startup souhaite une assurance que sa technologie ne sera pas utilisée pour des armes entièrement autonomes ou pour la surveillance de masse des Américains, mais le DOD n’a pas bougé.
La lettre interne d’Altman de jeudi visait à montrer qu’OpenAI partageait les limites d’Anthropic. Le Wall Street Journal a été le premier à rapporter cette note.
regarder maintenant
VIDÉO1:4801:48
Anthropic fait face à un combat « perdant-perdant » alors qu’il affronte le Pentagone
Tech
Avant la note d’Altman, les employés d’OpenAI avaient commencé à s’exprimer en soutien à Anthropic sur les réseaux sociaux. Environ 70 employés actuels ont signé une lettre ouverte intitulée « Nous ne serons pas divisés », qui vise à créer une « compréhension partagée et une solidarité face à cette pression » du département, selon son site web.
« Malgré toutes mes différences avec Anthropic, je leur fais principalement confiance en tant qu’entreprise, et je pense qu’ils se soucient vraiment de la sécurité, et j’ai été heureux qu’ils soutiennent nos combattants », a déclaré Altman à CNBC dans une interview vendredi. « Je ne sais pas où cela va mener. »
L’année dernière, OpenAI a obtenu un contrat de 200 millions de dollars du DOD, ce qui a permis à l’agence de commencer à utiliser les modèles de la startup dans des cas d’utilisation non classifiés. Anthropic a été le premier laboratoire d’IA à intégrer ses modèles dans des flux de travail de mission sur des réseaux classifiés.
Altman a déclaré qu’il verrait si OpenAI pouvait conclure un accord avec le DOD pour déployer ses modèles dans des environnements classifiés de manière « conforme à nos principes ». Il a indiqué que l’entreprise construirait des protections techniques et déploierait du personnel pour « s’assurer que tout fonctionne correctement ».
« Nous demanderions que le contrat couvre toute utilisation sauf celles qui sont illégales ou inadaptées aux déploiements en nuage, comme la surveillance domestique et les armes offensives autonomes », a écrit Altman.
Altman a indiqué qu’OpenAI avait eu des réunions sur le sujet ces derniers jours, et que l’entreprise n’avait pas encore pris de décision sur la marche à suivre. Il a ajouté que d’autres réunions auraient lieu avec les équipes de sécurité d’OpenAI vendredi.
« C’est un cas où il est important pour moi que nous fassions ce qui est juste, pas ce qui est facile et qui paraît fort mais est déloyal », a écrit Altman. « Mais je réalise que cela pourrait ne pas « paraître bien » pour nous à court terme, et qu’il y a beaucoup de nuances et de contexte. »
—_ Kate Rooney de CNBC a contribué à ce rapport. _
REGARDER : OpenAI clôture une levée de fonds de 110 milliards de dollars avec le soutien d’Amazon, Nvidia, Softbank
regarder maintenant
VIDÉO0:5300:53
OpenAI clôture une levée de fonds de 110 milliards de dollars avec le soutien d’Amazon, Nvidia, Softbank
Squawk Box