Зростаюча напруга між провідною лабораторією штучного інтелекту та оборонною структурою США переросла у високоризиковий конфлікт щодо антропічного ШІ та його використання на полі бою.
Anthropic твердо стоїть проти тиску Пентагону
Anthropic відмовилася виконати вимоги Міністерства оборони США щодо видалення ключових обмежень безпеки ШІ з її систем, хоча її контракт на 200 мільйонів доларів наразі під загрозою. Компанія чітко заявила, що не відступить у своєму спорі з Міноборони щодо того, як її передові моделі можуть бути розгорнуті в військових мережах.
Конкуренти стартапу, OpenAI, Google та xAI, отримали подібні нагороди від Міноборони до 200 мільйонів доларів у 2023 році. Однак ці компанії погодилися дозволити Пентагону використовувати їх системи для всіх законних місій у незакритих військових середовищах, що дало уряду ширшу оперативну гнучкість.
На відміну від них, Anthropic підписала власний контракт на 200 мільйонів доларів із Міноборони у липні та стала першою лабораторією ШІ, яка безпосередньо інтегрувала свої моделі у робочі процеси на секретних мережах. Більше того, її інструменти були впроваджені у чутливі оборонні операції, що поставило компанію в центрі розгортання штучного інтелекту для національної безпеки США.
Переговори з представниками Пентагону останніми тижнями ставали все напруженішими. Джерело, знайоме з цим процесом, повідомило, що напруга «почалася ще кілька місяців тому», задовго до того, як стало відомо, що Claude використовувався у операції США, пов’язаній із затриманням венесуельського президента Ніколаса Мадуро.
Спір щодо спостереження та автономної зброї
Основою конфлікту є питання, наскільки далеко військові можуть просувати потужні моделі ШІ у напрямку спостереження та автономії. Anthropic прагне отримати обов’язкові гарантії, що її технології не будуть використані для повністю автономної зброї або масового внутрішнього спостереження за американцями, тоді як Міноборони хоче уникнути таких обмежень.
Проте це не просто комерційний конфлікт, а публічний спір щодо заходів безпеки ШІ з прямими наслідками для майбутньої автоматизації на полі бою. Пентагон наполягає на максимально широких юридичних можливостях, тоді як Anthropic стверджує, що поточні системи ще не можна довіряти для масштабних рішень, що визначають життя і смерть.
У детальній заяві генеральний директор Dario Amodei попередив, що у «вузькому наборі випадків» штучний інтелект може «підривати, а не захищати демократичні цінності». Він підкреслив, що деякі застосування «просто виходять за межі того, що сучасні технології можуть безпечно і надійно робити», наголошуючи на ризиках зловживань під час складних військових операцій.
Розвиваючи тему спостереження, Amodei заявив, що потужні системи тепер дозволяють «збирати цю розкидану, індивідуально нешкідливу інформацію у всебічну картину життя будь-якої особи автоматично і у масштабі». Більше того, він застеріг, що така здатність, спрямована всередину, може кардинально змінити стосунки між громадянами та державою.
Amodei повторив, що Anthropic підтримує використання ШІ для законного збору іноземної розвідки. Однак він додав, що «використання цих систем для масового внутрішнього спостереження є несумісним із демократичними цінностями», чітко окреслюючи етичний кордон між зовнішньою розвідкою і внутрішнім контролем за американцями.
Загрози, терміни та юридичний тиск
Боротьба за владу посилилася під час вівторкової зустрічі у Пентагоні між Amodei та міністром оборони Петом Хегсетом. Хегсет погрожував оголосити Anthropic «ризиком у ланцюгу поставок» або застосувати Закон про виробництво оборонної продукції, щоб примусити компанію до співпраці. У середу ввечері Міноборони зробило «останню і остаточну пропозицію», встановивши час відповіді до 17:01 за східним часом у п’ятницю.
Представниця Anthropic підтвердила отримання переглянутого контрактного тексту у середу, але заявила, що це «майже не дає прогресу». За її словами, новий формулювання, подане як компроміс, супроводжувалося юридичними формулюваннями, які фактично дозволяли ігнорувати важливі заходи безпеки «на власний розсуд», підриваючи заявлені гарантії.
Коментуючи зростаючий тиск, Amodei сказав: «Міністерство війни заявило, що вони будуть укладати контракти лише з компаніями ШІ, які погоджуються на ‘будь-яке законне використання’ і знімають заходи безпеки у згаданих випадках». Він додав, що чиновники погрожували виключити Anthropic із систем і позначити компанію як «ризик у ланцюгу поставок», якщо вона відмовиться; проте він наполягав, що «не може з чистою совістю погодитися на їхні вимоги».
Для Пентагону питання поставлено інакше. Головний речник Шон Парнелл заявив у четвер, що Міноборони «не зацікавлене» у використанні систем Anthropic для повністю автономної зброї або масового спостереження за американцями, зазначаючи, що такі дії були б незаконними. Замість цього він наголосив, що департамент просто хоче, щоб компанія дозволила використовувати свою технологію «для всіх законних цілей», описуючи це як «простіше, здоровий глузд».
Особисті нападки та публічна підтримка
Конфлікт також став особистим на вищих рівнях. У четвер увечері заступник міністра оборони США Еміль Майкл у X атакував Amodei, стверджуючи, що керівник «хоче лише особисто контролювати американські військові». Майкл пішов далі, написавши: «Шкода, що Даріо Амодей — брехун і має божественний комплекс».
Однак Anthropic отримала значну підтримку з боку технологічного сектору. У відкритому листі понад 200 працівників Google і OpenAI публічно підтримали позицію компанії. Більше того, колишній чиновник Міноборони повідомив BBC, що виправдання Хегсета щодо використання ярлика «ризик у ланцюгу поставок» здається «надзвичайно слабким», піднімаючи питання про міцність аргументів Пентагону.
Цей конфлікт став також важливим еталоном у ширшій дискусії щодо етики ШІ та військової політики. Дослідники ШІ та захисники громадянських свобод уважно стежать за ситуацією, вважаючи її раннім тестом того, наскільки далеко оборонні агентства можуть тиснути на приватні лабораторії для послаблення внутрішніх обмежень на передові системи.
Стратегічні інтереси для оборони США
Незважаючи на ескалацію риторики, Amodei підкреслив, що він «глибоко усвідомлює екзистенційну важливість використання ШІ для захисту США». Він сформулював цю проблему як відповідальне розгортання, а не опір національній обороні, стверджуючи, що довгострокова довіра до можливостей ШІ США залежить від підтримки демократичних норм.
Представник Anthropic заявив, що організація залишається «готовою до подальших переговорів і зобов’язується забезпечити операційну безперервність для Міністерства та військових США». Однак із часом до дедлайну Пентагону та з погрозами щодо позначення як «ризику у ланцюгу поставок» обидві сторони стикаються з тиском вирішити конфлікт, не зашкодивши важливим інноваціям.
Загалом, конфлікт Anthropic і Пентагону щодо заходів безпеки, спостереження та автономії став визначальним раннім випадком у сфері управління військовим ШІ. Його результат, ймовірно, сформує підходи до контрактування, обмежень і розгортання антропічних моделей ШІ та конкурентних систем у майбутніх операціях оборони США.
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Конфронтація в Пентагоні ставить під загрозу заходи безпеки антропічного штучного інтелекту та $200 мільйонний оборонний контракт
Зростаюча напруга між провідною лабораторією штучного інтелекту та оборонною структурою США переросла у високоризиковий конфлікт щодо антропічного ШІ та його використання на полі бою.
Anthropic твердо стоїть проти тиску Пентагону
Anthropic відмовилася виконати вимоги Міністерства оборони США щодо видалення ключових обмежень безпеки ШІ з її систем, хоча її контракт на 200 мільйонів доларів наразі під загрозою. Компанія чітко заявила, що не відступить у своєму спорі з Міноборони щодо того, як її передові моделі можуть бути розгорнуті в військових мережах.
Конкуренти стартапу, OpenAI, Google та xAI, отримали подібні нагороди від Міноборони до 200 мільйонів доларів у 2023 році. Однак ці компанії погодилися дозволити Пентагону використовувати їх системи для всіх законних місій у незакритих військових середовищах, що дало уряду ширшу оперативну гнучкість.
На відміну від них, Anthropic підписала власний контракт на 200 мільйонів доларів із Міноборони у липні та стала першою лабораторією ШІ, яка безпосередньо інтегрувала свої моделі у робочі процеси на секретних мережах. Більше того, її інструменти були впроваджені у чутливі оборонні операції, що поставило компанію в центрі розгортання штучного інтелекту для національної безпеки США.
Переговори з представниками Пентагону останніми тижнями ставали все напруженішими. Джерело, знайоме з цим процесом, повідомило, що напруга «почалася ще кілька місяців тому», задовго до того, як стало відомо, що Claude використовувався у операції США, пов’язаній із затриманням венесуельського президента Ніколаса Мадуро.
Спір щодо спостереження та автономної зброї
Основою конфлікту є питання, наскільки далеко військові можуть просувати потужні моделі ШІ у напрямку спостереження та автономії. Anthropic прагне отримати обов’язкові гарантії, що її технології не будуть використані для повністю автономної зброї або масового внутрішнього спостереження за американцями, тоді як Міноборони хоче уникнути таких обмежень.
Проте це не просто комерційний конфлікт, а публічний спір щодо заходів безпеки ШІ з прямими наслідками для майбутньої автоматизації на полі бою. Пентагон наполягає на максимально широких юридичних можливостях, тоді як Anthropic стверджує, що поточні системи ще не можна довіряти для масштабних рішень, що визначають життя і смерть.
У детальній заяві генеральний директор Dario Amodei попередив, що у «вузькому наборі випадків» штучний інтелект може «підривати, а не захищати демократичні цінності». Він підкреслив, що деякі застосування «просто виходять за межі того, що сучасні технології можуть безпечно і надійно робити», наголошуючи на ризиках зловживань під час складних військових операцій.
Розвиваючи тему спостереження, Amodei заявив, що потужні системи тепер дозволяють «збирати цю розкидану, індивідуально нешкідливу інформацію у всебічну картину життя будь-якої особи автоматично і у масштабі». Більше того, він застеріг, що така здатність, спрямована всередину, може кардинально змінити стосунки між громадянами та державою.
Amodei повторив, що Anthropic підтримує використання ШІ для законного збору іноземної розвідки. Однак він додав, що «використання цих систем для масового внутрішнього спостереження є несумісним із демократичними цінностями», чітко окреслюючи етичний кордон між зовнішньою розвідкою і внутрішнім контролем за американцями.
Загрози, терміни та юридичний тиск
Боротьба за владу посилилася під час вівторкової зустрічі у Пентагоні між Amodei та міністром оборони Петом Хегсетом. Хегсет погрожував оголосити Anthropic «ризиком у ланцюгу поставок» або застосувати Закон про виробництво оборонної продукції, щоб примусити компанію до співпраці. У середу ввечері Міноборони зробило «останню і остаточну пропозицію», встановивши час відповіді до 17:01 за східним часом у п’ятницю.
Представниця Anthropic підтвердила отримання переглянутого контрактного тексту у середу, але заявила, що це «майже не дає прогресу». За її словами, новий формулювання, подане як компроміс, супроводжувалося юридичними формулюваннями, які фактично дозволяли ігнорувати важливі заходи безпеки «на власний розсуд», підриваючи заявлені гарантії.
Коментуючи зростаючий тиск, Amodei сказав: «Міністерство війни заявило, що вони будуть укладати контракти лише з компаніями ШІ, які погоджуються на ‘будь-яке законне використання’ і знімають заходи безпеки у згаданих випадках». Він додав, що чиновники погрожували виключити Anthropic із систем і позначити компанію як «ризик у ланцюгу поставок», якщо вона відмовиться; проте він наполягав, що «не може з чистою совістю погодитися на їхні вимоги».
Для Пентагону питання поставлено інакше. Головний речник Шон Парнелл заявив у четвер, що Міноборони «не зацікавлене» у використанні систем Anthropic для повністю автономної зброї або масового спостереження за американцями, зазначаючи, що такі дії були б незаконними. Замість цього він наголосив, що департамент просто хоче, щоб компанія дозволила використовувати свою технологію «для всіх законних цілей», описуючи це як «простіше, здоровий глузд».
Особисті нападки та публічна підтримка
Конфлікт також став особистим на вищих рівнях. У четвер увечері заступник міністра оборони США Еміль Майкл у X атакував Amodei, стверджуючи, що керівник «хоче лише особисто контролювати американські військові». Майкл пішов далі, написавши: «Шкода, що Даріо Амодей — брехун і має божественний комплекс».
Однак Anthropic отримала значну підтримку з боку технологічного сектору. У відкритому листі понад 200 працівників Google і OpenAI публічно підтримали позицію компанії. Більше того, колишній чиновник Міноборони повідомив BBC, що виправдання Хегсета щодо використання ярлика «ризик у ланцюгу поставок» здається «надзвичайно слабким», піднімаючи питання про міцність аргументів Пентагону.
Цей конфлікт став також важливим еталоном у ширшій дискусії щодо етики ШІ та військової політики. Дослідники ШІ та захисники громадянських свобод уважно стежать за ситуацією, вважаючи її раннім тестом того, наскільки далеко оборонні агентства можуть тиснути на приватні лабораторії для послаблення внутрішніх обмежень на передові системи.
Стратегічні інтереси для оборони США
Незважаючи на ескалацію риторики, Amodei підкреслив, що він «глибоко усвідомлює екзистенційну важливість використання ШІ для захисту США». Він сформулював цю проблему як відповідальне розгортання, а не опір національній обороні, стверджуючи, що довгострокова довіра до можливостей ШІ США залежить від підтримки демократичних норм.
Представник Anthropic заявив, що організація залишається «готовою до подальших переговорів і зобов’язується забезпечити операційну безперервність для Міністерства та військових США». Однак із часом до дедлайну Пентагону та з погрозами щодо позначення як «ризику у ланцюгу поставок» обидві сторони стикаються з тиском вирішити конфлікт, не зашкодивши важливим інноваціям.
Загалом, конфлікт Anthropic і Пентагону щодо заходів безпеки, спостереження та автономії став визначальним раннім випадком у сфері управління військовим ШІ. Його результат, ймовірно, сформує підходи до контрактування, обмежень і розгортання антропічних моделей ШІ та конкурентних систем у майбутніх операціях оборони США.