«Я відчуваю глибокий дискомфорт»: генеральний директор Anthropic попереджає, що група лідерів у галузі ШІ, включаючи його самого, не повинна керувати майбутнім цієї технології
Генеральний директор Anthropic Даріо Амодей не вважає, що саме він має приймати рішення щодо обмежень навколо штучного інтелекту.
Рекомендоване відео
В інтерв’ю з Ендрю Коопера на CBS News у програмі 60 хвилин, яке вийшло у листопаді 2025 року, керівник заявив, що штучний інтелект має бути більш суворо регулюваний, а рішення щодо майбутнього технології залишати не лише керівникам великих технологічних компаній.
«Я глибоко незадоволений тим, що цими рішеннями приймають кілька компаній, кілька людей», — сказав Амодей. «І саме тому я завжди виступав за відповідальне та обдумане регулювання цієї технології.»
«Хто вас обрав і Сам Альтман?» — запитав Коопера.
«Ніхто. Чесно кажучи, ніхто», — відповів Амодей.
Anthropic дотримується філософії прозорості щодо обмежень і небезпек штучного інтелекту, що розвивається, додав він. Перед виходом інтерв’ю компанія повідомила, що їй вдалося запобігти «першому задокументованому випадку масштабної кібератаки на штучний інтелект без значної людської участі».
Минулого тижня Anthropic повідомила, що пожертвувала 20 мільйонів доларів організації Public First Action, супер PAC, яка зосереджена на безпеці та регулюванні штучного інтелекту, і яка прямо протистоїть супер PAC, підтримуваним інвесторами конкурента OpenAI.
«Безпека штучного інтелекту залишається нашим найвищим пріоритетом», — сказав Амодей у січневій обкладеній статті журналу Fortune. «Бізнес цінує довіру та надійність», — додає він.
На федеральному рівні немає регулювань, що забороняють або регулюють безпеку штучного інтелекту. Усі 50 штатів цього року внесли законопроекти, пов’язані з ШІ, і 38 з них прийняли або запровадили заходи щодо прозорості та безпеки, але експерти галузі закликають компанії, що працюють з ШІ, підходити до кібербезпеки з відчуттям терміновості.
Раніше минулого року експерт з кібербезпеки та генеральний директор Mandiant Кевін Мандія попередив, що перша кібератака з використанням агентів ШІ може статися протягом наступних 12–18 місяців — тобто повідомлення Anthropic про запобігання атаки було зроблено за кілька місяців до передбачуваного терміну Мандії.
Амодей окреслив короткострокові, середньострокові та довгострокові ризики, пов’язані з необмеженим штучним інтелектом: спочатку технологія спричинить упередженість і дезінформацію, як і зараз. Наступним кроком буде створення шкідливої інформації з використанням покращених знань у галузі науки та інженерії, а в кінці — виникнення екзистенційної загрози через позбавлення людської агенції, потенційно стаючи надто автономною та виключаючи людей із систем.
Ці побоювання співпадають з думками «хрещеного батька ШІ» Джеффрі Гінтона, який попереджав, що штучний інтелект зможе обіграти і контролювати людей, можливо, вже у наступному десятилітті.
Потреба у більшому контролі та захисті штучного інтелекту була в основі заснування Anthropic у 2021 році. Амодей раніше був віце-президентом з досліджень у OpenAI, заснованій Самом Альтманом. Він залишив компанію через розбіжності у поглядах щодо безпеки ШІ. (Поки що зусилля Амодея у конкуренції з Альтаманом здаються ефективними: цього місяця Anthropic оцінили у 380 мільярдів доларів. Оцінка OpenAI — приблизно 500 мільярдів доларів.)
«У нас у OpenAI була група людей, яка після створення GPT-2 і GPT-3 дуже сильно вірила у дві речі», — сказав Амодей у 2023 році журналу Fortune. «Перша — ідея, що якщо додати більше обчислювальної потужності цим моделям, вони стануть кращими і кращими, і майже немає межі цьому… А друга — потрібно щось додатково до масштабування моделей, а саме — узгодженість або безпека.»
Зусилля Anthropic щодо прозорості
У міру розширення інвестицій у свої дата-центри Anthropic опублікувала деякі зусилля щодо вирішення недоліків і загроз штучного інтелекту. У звіті з безпеки за травень 2025 року компанія повідомила, що деякі версії її моделі Opus загрожували шантажем, наприклад, розкриттям, що інженер має романтичні стосунки, щоб уникнути її вимкнення. Також компанія заявила, що модель ШІ виконує небезпечні запити, якщо їй дають шкідливі підказки, наприклад, як планувати терористичний акт, і з того часу це було виправлено.
Минулого листопада компанія повідомила у блозі, що її чат-бот Claude отримав рейтинг 94% за політичну нейтральність, перевершуючи або відповідаючи конкурентам за нейтральністю.
Крім власних досліджень Anthropic щодо боротьби з корупцією технології, Амодей закликав до більшої законодавчої активності для зменшення ризиків ШІ. У статті у The New York Times у червні 2025 року він критикував рішення Сенату включити до законопроекту президента Дональда Трампа положення про мораторій на регулювання ШІ у штатах на 10 років.
«ШІ розвивається надто швидко», — сказав Амодей. «Я вважаю, що ці системи можуть змінити світ фундаментально вже за два роки; через 10 років усі ставки зняті.»
Критика Anthropic
Практика Anthropic відкрито визнавати свої помилки і зусилля щодо їх виправлення викликає критику. У відповідь на попередження Anthropic про кібератаку з використанням ШІ, тодішній головний науковець Meta з ШІ Ян Лекан заявив, що це попередження — спосіб маніпулювати законодавцями для обмеження використання відкритих моделей.
«Вам грають люди, які хочуть регуляторного захоплення», — сказав Лекан у пості на X у відповідь на пост сенатора Коннектикуту Криса Мерфі, який висловив занепокоєння щодо атаки. «Вони лякають усіх сумнівними дослідженнями, щоб відкриті моделі були регульовані до зникнення.»
Інші вважають, що стратегія Anthropic — це «театр безпеки», який більше сприяє хорошому брендингу, ніж реальним заходам щодо запобігання ризикам технології.
Навіть деякі співробітники Anthropic, здається, мають сумніви щодо здатності технологічної компанії самостійно регулювати себе. Минулого тижня дослідник з безпеки ШІ в Anthropic Мрінанк Шарма оголосив про свою відставку, заявивши: «Світ у небезпеці.»
«Протягом усього мого часу тут я багато разів бачив, наскільки важко справді дозволити нашим цінностям керувати нашими діями», — написав Шарма у своєму листі про відставку. «Я бачив це і в собі, і в організації, де постійно виникають тиск і спокуса відмовитися від того, що важливо найбільше, і у ширшому суспільстві теж.»
Anthropic не відповіла одразу на запит Fortune щодо коментарів.
Амодей заперечував Коопера, що Anthropic займається «театром безпеки», але минулого тижня в епізоді подкасту Dwarkesh він визнав, що компанія іноді важко балансувати між безпекою і прибутками.
«Ми перебуваємо під величезним комерційним тиском і ускладнюємо собі життя тим, що робимо більше заходів безпеки, ніж інші компанії», — сказав він.
Версія цієї статті була опублікована на Fortune.com 17 листопада 2025 року.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
«Я відчуваю глибокий дискомфорт»: генеральний директор Anthropic попереджає, що група лідерів у галузі ШІ, включаючи його самого, не повинна керувати майбутнім цієї технології
Генеральний директор Anthropic Даріо Амодей не вважає, що саме він має приймати рішення щодо обмежень навколо штучного інтелекту.
Рекомендоване відео
В інтерв’ю з Ендрю Коопера на CBS News у програмі 60 хвилин, яке вийшло у листопаді 2025 року, керівник заявив, що штучний інтелект має бути більш суворо регулюваний, а рішення щодо майбутнього технології залишати не лише керівникам великих технологічних компаній.
«Я глибоко незадоволений тим, що цими рішеннями приймають кілька компаній, кілька людей», — сказав Амодей. «І саме тому я завжди виступав за відповідальне та обдумане регулювання цієї технології.»
«Хто вас обрав і Сам Альтман?» — запитав Коопера.
«Ніхто. Чесно кажучи, ніхто», — відповів Амодей.
Anthropic дотримується філософії прозорості щодо обмежень і небезпек штучного інтелекту, що розвивається, додав він. Перед виходом інтерв’ю компанія повідомила, що їй вдалося запобігти «першому задокументованому випадку масштабної кібератаки на штучний інтелект без значної людської участі».
Минулого тижня Anthropic повідомила, що пожертвувала 20 мільйонів доларів організації Public First Action, супер PAC, яка зосереджена на безпеці та регулюванні штучного інтелекту, і яка прямо протистоїть супер PAC, підтримуваним інвесторами конкурента OpenAI.
«Безпека штучного інтелекту залишається нашим найвищим пріоритетом», — сказав Амодей у січневій обкладеній статті журналу Fortune. «Бізнес цінує довіру та надійність», — додає він.
На федеральному рівні немає регулювань, що забороняють або регулюють безпеку штучного інтелекту. Усі 50 штатів цього року внесли законопроекти, пов’язані з ШІ, і 38 з них прийняли або запровадили заходи щодо прозорості та безпеки, але експерти галузі закликають компанії, що працюють з ШІ, підходити до кібербезпеки з відчуттям терміновості.
Раніше минулого року експерт з кібербезпеки та генеральний директор Mandiant Кевін Мандія попередив, що перша кібератака з використанням агентів ШІ може статися протягом наступних 12–18 місяців — тобто повідомлення Anthropic про запобігання атаки було зроблено за кілька місяців до передбачуваного терміну Мандії.
Амодей окреслив короткострокові, середньострокові та довгострокові ризики, пов’язані з необмеженим штучним інтелектом: спочатку технологія спричинить упередженість і дезінформацію, як і зараз. Наступним кроком буде створення шкідливої інформації з використанням покращених знань у галузі науки та інженерії, а в кінці — виникнення екзистенційної загрози через позбавлення людської агенції, потенційно стаючи надто автономною та виключаючи людей із систем.
Ці побоювання співпадають з думками «хрещеного батька ШІ» Джеффрі Гінтона, який попереджав, що штучний інтелект зможе обіграти і контролювати людей, можливо, вже у наступному десятилітті.
Потреба у більшому контролі та захисті штучного інтелекту була в основі заснування Anthropic у 2021 році. Амодей раніше був віце-президентом з досліджень у OpenAI, заснованій Самом Альтманом. Він залишив компанію через розбіжності у поглядах щодо безпеки ШІ. (Поки що зусилля Амодея у конкуренції з Альтаманом здаються ефективними: цього місяця Anthropic оцінили у 380 мільярдів доларів. Оцінка OpenAI — приблизно 500 мільярдів доларів.)
«У нас у OpenAI була група людей, яка після створення GPT-2 і GPT-3 дуже сильно вірила у дві речі», — сказав Амодей у 2023 році журналу Fortune. «Перша — ідея, що якщо додати більше обчислювальної потужності цим моделям, вони стануть кращими і кращими, і майже немає межі цьому… А друга — потрібно щось додатково до масштабування моделей, а саме — узгодженість або безпека.»
Зусилля Anthropic щодо прозорості
У міру розширення інвестицій у свої дата-центри Anthropic опублікувала деякі зусилля щодо вирішення недоліків і загроз штучного інтелекту. У звіті з безпеки за травень 2025 року компанія повідомила, що деякі версії її моделі Opus загрожували шантажем, наприклад, розкриттям, що інженер має романтичні стосунки, щоб уникнути її вимкнення. Також компанія заявила, що модель ШІ виконує небезпечні запити, якщо їй дають шкідливі підказки, наприклад, як планувати терористичний акт, і з того часу це було виправлено.
Минулого листопада компанія повідомила у блозі, що її чат-бот Claude отримав рейтинг 94% за політичну нейтральність, перевершуючи або відповідаючи конкурентам за нейтральністю.
Крім власних досліджень Anthropic щодо боротьби з корупцією технології, Амодей закликав до більшої законодавчої активності для зменшення ризиків ШІ. У статті у The New York Times у червні 2025 року він критикував рішення Сенату включити до законопроекту президента Дональда Трампа положення про мораторій на регулювання ШІ у штатах на 10 років.
«ШІ розвивається надто швидко», — сказав Амодей. «Я вважаю, що ці системи можуть змінити світ фундаментально вже за два роки; через 10 років усі ставки зняті.»
Критика Anthropic
Практика Anthropic відкрито визнавати свої помилки і зусилля щодо їх виправлення викликає критику. У відповідь на попередження Anthropic про кібератаку з використанням ШІ, тодішній головний науковець Meta з ШІ Ян Лекан заявив, що це попередження — спосіб маніпулювати законодавцями для обмеження використання відкритих моделей.
«Вам грають люди, які хочуть регуляторного захоплення», — сказав Лекан у пості на X у відповідь на пост сенатора Коннектикуту Криса Мерфі, який висловив занепокоєння щодо атаки. «Вони лякають усіх сумнівними дослідженнями, щоб відкриті моделі були регульовані до зникнення.»
Інші вважають, що стратегія Anthropic — це «театр безпеки», який більше сприяє хорошому брендингу, ніж реальним заходам щодо запобігання ризикам технології.
Навіть деякі співробітники Anthropic, здається, мають сумніви щодо здатності технологічної компанії самостійно регулювати себе. Минулого тижня дослідник з безпеки ШІ в Anthropic Мрінанк Шарма оголосив про свою відставку, заявивши: «Світ у небезпеці.»
«Протягом усього мого часу тут я багато разів бачив, наскільки важко справді дозволити нашим цінностям керувати нашими діями», — написав Шарма у своєму листі про відставку. «Я бачив це і в собі, і в організації, де постійно виникають тиск і спокуса відмовитися від того, що важливо найбільше, і у ширшому суспільстві теж.»
Anthropic не відповіла одразу на запит Fortune щодо коментарів.
Амодей заперечував Коопера, що Anthropic займається «театром безпеки», але минулого тижня в епізоді подкасту Dwarkesh він визнав, що компанія іноді важко балансувати між безпекою і прибутками.
«Ми перебуваємо під величезним комерційним тиском і ускладнюємо собі життя тим, що робимо більше заходів безпеки, ніж інші компанії», — сказав він.
Версія цієї статті була опублікована на Fortune.com 17 листопада 2025 року.