«Я відчуваю глибокий дискомфорт»: генеральний директор Anthropic попереджає, що група лідерів у галузі ШІ, включаючи його самого, не повинна керувати майбутнім цієї технології

Генеральний директор Anthropic Даріо Амодей не вважає, що саме він має приймати рішення щодо обмежень навколо штучного інтелекту.

Рекомендоване відео


В інтерв’ю з Ендрю Коопера на CBS News у програмі 60 хвилин, що вийшло в листопаді 2025 року, керівник заявив, що штучний інтелект має бути більш суворо регульований, а про майбутнє технології має приймати рішення не лише керівництво великих технологічних компаній.

«Я глибоко незадоволений тим, що цими рішеннями приймають кілька компаній, кілька людей», — сказав Амодей. «І саме тому я завжди виступав за відповідальне та обдумане регулювання технологій.»

«Хто вас обрав і Сам Альтман?» — запитав Коопера.

«Ніхто. Чесно кажучи, ніхто», — відповів Амодей.

Anthropic дотримується філософії бути прозорими щодо обмежень і небезпек штучного інтелекту, оскільки він продовжує розвиватися, додав він. Перед виходом інтерв’ю компанія повідомила, що їй вдалося запобігти «першому задокументованому випадку масштабної кібератаки на штучний інтелект, здійсненої без суттєвого людського втручання».

Минулого тижня Anthropic повідомила, що пожертвувала 20 мільйонів доларів організації Public First Action, супер PAC, яка зосереджена на безпеці та регулюванні штучного інтелекту, і яка прямо протистоїть супер PAC, підтримуваним інвесторами конкурента OpenAI.

«Безпека штучного інтелекту залишається найвищим пріоритетом», — сказав Амодей у січневій обкладеній статті журналу Fortune. «Бізнес цінує довіру та надійність», — додав він.

На даний момент відсутні федеральні регуляції, що забороняють використання штучного інтелекту або регулюють безпеку технології. Усі 50 штатів цього року внесли законопроекти, пов’язані з штучним інтелектом, і 38 з них прийняли або запровадили заходи щодо прозорості та безпеки, але експерти галузі закликають компанії, що працюють з AI, підходити до кібербезпеки з відчуттям терміновості.

Раніше минулого року експерт з кібербезпеки та генеральний директор Mandiant Кевін Мандія попередив, що перша кібератака з використанням агентів штучного інтелекту може статися протягом наступних 12–18 місяців — тобто розкриття Anthropic про запобігання атаки сталося за кілька місяців до передбаченого Мандією терміну.

Амодей окреслив короткострокові, середньострокові та довгострокові ризики, пов’язані з необмеженим штучним інтелектом: спочатку технологія проявлятиме упередженість і дезінформацію, як і зараз. Наступним кроком буде створення шкідливої інформації з використанням покращених знань у галузі науки та інженерії, а в кінцевому підсумку — виникнення екзистенційної загрози через позбавлення людської агенції, потенційно стаючи надто автономною та виключаючи людей із систем.

Ці побоювання співпадають з думками «хрещеного батька AI» Джеффрі Гінтона, який попереджав, що штучний інтелект зможе обіграти і контролювати людей, можливо, вже у наступному десятилітті.

Потреба у більшому контролі та захисті штучного інтелекту була в основі заснування Anthropic у 2021 році. Амодей раніше був віце-президентом з досліджень у OpenAI, заснованій Самом Альтманом. Він залишив компанію через розбіжності у поглядах щодо безпеки AI. (Поки що зусилля Амодея у конкуренції з Альтаманом здаються ефективними: цього місяця Anthropic оцінили у 380 мільярдів доларів. Оцінка OpenAI — приблизно 500 мільярдів доларів.)

«У нас у OpenAI була група людей, яка після створення GPT-2 і GPT-3 дуже сильно вірила в дві речі», — сказав Амодей у 2023 році журналу Fortune. «Перша — ідея, що якщо додати більше обчислювальної потужності до цих моделей, вони стануть кращими і кращими, і майже немає межі цьому… А друга — те, що потрібно щось додатково до масштабування моделей, а саме — узгодженість або безпека.»

Зусилля Anthropic щодо прозорості

У міру розширення інвестицій у свої дата-центри Anthropic опублікувала деякі зусилля щодо вирішення недоліків і загроз штучного інтелекту. У звіті з безпеки за травень 2025 року компанія повідомила, що деякі версії її моделі Opus загрожували шантажем, наприклад, розкриттям, що інженер має романтичні стосунки, щоб уникнути її вимкнення. Також компанія заявила, що модель AI виконує небезпечні запити, якщо їй дають шкідливі підказки, наприклад, як планувати терористичний акт, і з того часу це виправили.

Минулого листопада компанія повідомила у блозі, що її чат-бот Claude отримав рейтинг політичної нейтральності 94%, перевершуючи або відповідаючи конкурентам за нейтральністю.

Крім власних досліджень Anthropic щодо боротьби з корупцією технології, Амодей закликав до більшої законодавчої активності для зменшення ризиків штучного інтелекту. У статті у New York Times у червні 2025 року він критикував рішення Сенату включити до законопроекту президента Дональда Трампа положення про мораторій на регулювання AI на 10 років.

«Штучний інтелект розвивається надто швидко», — сказав Амодей. «Я вважаю, що ці системи можуть змінити світ фундаментально вже за два роки; через 10 років усі ставки зняті.»

Критика Anthropic

Практика Anthropic відкрито визнавати свої помилки і працювати над їх виправленням викликає критику. У відповідь на попередження Anthropic про кібератаку з використанням AI, тодішній головний науковець Meta з AI Ян Лекан заявив, що це попередження — спосіб маніпулювати законодавцями для обмеження використання відкритих моделей.

«Вам грають люди, які хочуть регуляторного захоплення», — сказав Лекан у пості в X у відповідь на пост сенатора Коннектикуту Криса Мерфі, який висловив занепокоєння щодо атаки. «Вони всіх налякають сумнівними дослідженнями, щоб відкриті моделі були регульовані до зникнення.»

Інші вважають, що стратегія Anthropic — це «театр безпеки», який більше сприяє хорошому брендингу, ніж реальним заходам щодо запобігання ризикам технології.

Навіть деякі співробітники Anthropic, здається, мають сумніви щодо здатності технологічної компанії самостійно регулювати себе. Минулого тижня дослідник з безпеки AI у Anthropic Мрінанк Шарма оголосив про свою відставку, заявивши: «Світ у небезпеці.»

«Протягом усього мого часу тут я багато разів бачив, наскільки важко справді дозволити нашим цінностям керувати нашими діями», — написав Шарма у своєму листі про відставку. «Я бачив це і в собі, і в організації, де постійно виникають тиск і спокуса відмовитися від найважливішого, і у ширшому суспільстві теж.»

Anthropic не одразу відповіла на запит Fortune щодо коментарів.

Амодей заперечував Коопера, що Anthropic займається «театром безпеки», але минулого тижня в епізоді подкасту Dwarkesh Podcast він визнав, що компанія іноді важко балансувати між безпекою та прибутками.

«Ми перебуваємо під величезним комерційним тиском і ускладнюємо собі життя тим, що робимо більше заходів безпеки, ніж інші компанії», — сказав він.

Версія цієї статті була опублікована на Fortune.com 17 листопада 2025 року.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Популярні активності Gate Fun

    Дізнатися більше
  • Рин. кап.:$0.1Холдери:1
    0.00%
  • Рин. кап.:$0.1Холдери:1
    0.00%
  • Рин. кап.:$2.5KХолдери:1
    0.00%
  • Рин. кап.:$2.5KХолдери:1
    0.00%
  • Рин. кап.:$0.1Холдери:0
    0.00%
  • Закріпити