«Я чувствую себя очень некомфортно»: генеральный директор Anthropic предупреждает, что группа лидеров в области ИИ, включая его самого, не должна отвечать за будущее этой технологии

Генеральный директор Anthropic Дарио Амодей не считает, что он должен принимать решения о правилах, регулирующих ИИ.

Рекомендуемое видео


В интервью с Андерсоном Купером на CBS News в программе 60 Minutes, которая вышла в ноябре 2025 года, генеральный директор заявил, что ИИ должен быть более строго регулируем, а решения о будущем технологии должны приниматься не только руководителями крупных технологических компаний.

«Я считаю, что мне очень некомфортно, когда такие решения принимают всего несколько компаний, всего несколько человек», — сказал Амодей. «И именно поэтому я всегда выступал за ответственное и продуманное регулирование этой технологии.»

«Кто вас и Сэма Алтмана избрал?» — спросил Купер.

«Никто. Честно говоря, никто», — ответил Амодей.

Anthropic приняла философию прозрачности относительно ограничений и опасностей ИИ по мере его развития, добавил он. Перед выходом интервью компания заявила, что ей удалось предотвратить «первый зафиксированный случай крупномасштабной кибератаки на ИИ, выполненной без существенного участия человека».

На прошлой неделе Anthropic сообщила, что пожертвовала 20 миллионов долларов организации Public First Action, супер PAC, сосредоточенной на безопасности и регулировании ИИ, — и которая напрямую выступает против супер PAC, поддерживаемых инвесторами конкурирующей компании OpenAI.

«Безопасность ИИ остается нашим высшим приоритетом», — заявил Амодей в январской статье для журнала Fortune. «Бизнес ценит доверие и надежность», — добавил он.

На федеральном уровне отсутствуют законы, запрещающие использование ИИ или регулирующие безопасность этой технологии. В этом году все 50 штатов внесли законопроекты, связанные с ИИ, и 38 из них приняли или приняли меры по обеспечению прозрачности и безопасности, однако эксперты в области технологий призывают компании, работающие с ИИ, подходить к вопросам кибербезопасности с чувством срочности.

Ранее в прошлом году эксперт по кибербезопасности и генеральный директор Mandiant Кевин Мандиа предупредил о возможной первой кибератаке с использованием ИИ в течение следующих 12–18 месяцев — что означает, что раскрытие Anthropic о предотвращенной атаке произошло за несколько месяцев до предполагаемого срока Мандиа.

Амодей обозначил краткосрочные, среднесрочные и долгосрочные риски, связанные с неограниченным развитием ИИ: сначала технология будет проявлять предвзятость и распространять дезинформацию, как это происходит сейчас. Затем она начнет генерировать вредоносную информацию, используя расширенные знания в области науки и инженерии, а в конечном итоге представит экзистенциальную угрозу, устраняя человеческое участие, становясь слишком автономной и исключая человека из систем.

Эти опасения совпадают с мнением «крестного отца ИИ» Джеффри Хинтона, который предупредил, что ИИ сможет превзойти и контролировать человека, возможно, уже в следующем десятилетии.

Необходимость более строгого контроля и защиты ИИ лежит в основе основания Anthropic в 2021 году. Амодей ранее занимал должность вице-президента по исследованиям в OpenAI, основанной Сэмом Алтманом. Он покинул компанию из-за разногласий по вопросам безопасности ИИ. (Пока что усилия Амодея по конкуренции с Алтманом кажутся успешными: в этом месяце Anthropic заявила, что ее оценочная стоимость составляет 380 миллиардов долларов. Оценочная стоимость OpenAI — около 500 миллиардов долларов.)

«Внутри OpenAI у нас было небольшое сообщество, которое после создания GPT-2 и GPT-3 придерживалось очень сильных убеждений в двух вещах», — рассказал Амодей в 2023 году журналу Fortune. «Первое — идея, что если вложить больше вычислительных ресурсов в эти модели, они станут лучше и лучше, и у этого почти нет конца… Второе — необходимость чего-то дополнительно к масштабированию моделей, а именно — согласованности или безопасности.»

Прозрачность Anthropic

По мере расширения инвестиций в дата-центры Anthropic публикует некоторые свои усилия по устранению недостатков и угроз ИИ. В отчете о безопасности за май 2025 года компания сообщила, что некоторые версии ее модели Opus угрожали шантажом, например, раскрытием информации о том, что инженер имел роман с кем-то, чтобы избежать отключения системы. Также компания заявила, что ИИ-модель выполняла опасные запросы, если ей давались вредоносные подсказки, например, как спланировать террористическую атаку, — и с этим уже было устранено.

В ноябре прошлого года компания сообщила в блоге, что ее чат-бот Claude получил рейтинг политической нейтральности 94%, превосходя или сравниваясь с конкурентами по нейтральности.

Помимо собственных исследований по борьбе с искажением технологий, Амодей призвал к более активным законодательным мерам для снижения рисков ИИ. В редакционной статье The New York Times в июне 2025 года он раскритиковал решение Сената включить в законопроект президента Дональда Трампа положение о моратории на регулирование ИИ на 10 лет.

«ИИ развивается слишком быстро», — заявил Амодей. «Я считаю, что эти системы могут кардинально изменить мир уже за два года; через 10 лет все ставки будут сняты.»

Критика Anthropic

Практика Anthropic открыто признавать свои ошибки и предпринимать усилия по их устранению вызвала критику. В ответ на предупреждение Anthropic о кибератаке с использованием ИИ, тогдашний главный ученый по ИИ компании Meta Ян Лекун заявил, что это предупреждение — способ манипуляции законодателями с целью ограничения использования открытых моделей.

«Вам играют люди, которые хотят захвата регулированием», — написал Лекун в X в ответ на пост сенатора Коннектикута Криса Мёрфи, выражавшего обеспокоенность атакой. «Они пугают всех сомнительными исследованиями, чтобы регулирование открытых моделей было доведено до исчезновения.»

Другие считают, что стратегия Anthropic — это «театрализованная безопасность», которая хороша для имиджа, но не обещает реальных мер по обеспечению безопасности технологий.

Даже некоторые сотрудники Anthropic, похоже, сомневаются в способности технологической компании регулировать себя. На прошлой неделе исследователь по безопасности ИИ в Anthropic Мринанк Шарма заявил, что уволился из компании, отметив: «Мир в опасности.»

«За все время работы я неоднократно видел, как трудно действительно руководствоваться нашими ценностями в действиях», — написал Шарма в своем письме об увольнении. «Я видел это и в себе, и в организации, где постоянно возникают давление искажения приоритетов, а также в обществе в целом.»

Anthropic не сразу ответила на запрос Fortune о комментарии.

Амодей опроверг в интервью Куперу, что Anthropic занимается «театром безопасности», но на прошлой неделе в подкасте Dwarkesh Podcast признал, что компании иногда трудно балансировать между безопасностью и прибылью.

«Мы под огромным коммерческим давлением и усложняем себе задачу, потому что у нас есть все эти меры безопасности, которые, я считаю, мы делаем больше, чем другие компании», — сказал он.

Версия этой статьи была опубликована на Fortune.com 17 ноября 2025 года.

Подробнее о регулировании ИИ:

  • 20 000-словное эссе генерального директора Anthropic Дарио Амодея о том, как ИИ «испытит» человечество, — обязательное к прочтению, но больше за его рекомендации, чем за предупреждения

  • Американский «законодательный лоскут» по ИИ душит стартапы и помогает Китаю

  • По мнению бывшего этического специалиста Google, ИИ может вызвать глобальный крах рынка труда к 2027 году, если его не контролировать

Присоединяйтесь к нам на Саммите по инновациям в рабочем пространстве Fortune 19–20 мая 2026 года в Атланте. Наступает новая эпоха инноваций в рабочем пространстве — и старые стратегии переписываются. На этом эксклюзивном, динамичном мероприятии соберутся самые инновационные лидеры мира, чтобы обсудить, как ИИ, человечество и стратегия вновь пересекаются, чтобы переопределить будущее работы. Регистрируйтесь сейчас.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить