Пока в AI-сообществе кипят споры из‑за вопросов безопасности вокруг модели Anthropic Mythos, лауреат премии Тьюринга, главный AI‑учёный Meta Янн Лекун на X сделал краткое заявление: «Не будет никакого одного человека, который “несёт ответственность” за сверхразум». Этот пост набрал 935 лайков и более 100 комментариев, предоставив совершенно иной взгляд на управление в атмосфере паники, вызванной Mythos.
Философия управления за одной фразой
Заявление Лекуна, кажется, простое, но на самом деле оно прямо указывает на фундаментальную логическую ошибку в обсуждениях AI‑управления: сведение рисков сверхразума к вопросу «кто будет контролировать». Когда люди говорят об AI‑безопасности, распространённый сюжет — найти «ответственного»: компанию, государственный орган или технического лидера, чтобы «направлять» развитие AI. Лекун считает, что сама эта предпосылка неверна.
Эта позиция согласуется с его неизменной философией открытого AI: управление AI должно быть децентрализованным, системным и с участием многих сторон, а не сосредоточенным в руках какой‑либо одной организации.
Обратное мышление в разгаре спора Mythos
Время высказывания Лекуна показательно. В тот же день Мэтт Шумер назвал модель Mythos от Anthropic «сетевым оружием», а Итан Моллик выразил шок: «Oh no.». Логика этих реакций подразумевает, что такой мощный AI обязательно нужно жёстко контролировать, и лучше всего, если им управляет один ответственный «привратник».
Позиция Лекуна прямо противоположна — он не считает, что «одна компания решает не выпускать» само по себе является гарантией безопасности. Если лишь несколько компаний владеют AI уровня сверхразума, и односторонние решения этих компаний могут определять глобальный путь развития AI, то это само по себе является риском. Централизованный контроль не означает безопасности — он, напротив, может создавать новые дисбалансы власти.
Вызовы децентрализованного управления
Позиция Лекуна также сталкивается с реальными вызовами. Децентрализованное управление звучит идеально, но в условиях, когда возможности AI растут экспоненциально, «никто не несёт ответственности» может означать «никто не может нести ответственность». Если модель может находить уязвимости нулевого дня, остаётся ли открытый доступ по‑прежнему лучшей стратегией?
Это и есть главная противоречивость текущих дебатов об AI‑управлении: риск злоупотребления властью при централизованном контроле и риск злоупотребления возможностями при децентрализованном открытом доступе. Одна фраза Лекуна не разрешила это противоречие, но она заставляет людей заново оценить, действительно ли интуитивное решение «назначить одного человека ответственным» является осуществимым.
Выводы для обсуждений AI‑управления
Между паникой, вызванной Mythos, и спокойным размышлением Лекуна мы видим фундаментальное расхождение двух школ в вопросе AI‑управления: «безопасники» настаивают на ограничении возможностей и централизованном контроле, а «открытая школа» — на широком доступе и децентрализованном управлении. У этой дискуссии не будет простого вывода, но для тайваньских политиков, занимающихся AI‑политикой, понимание напряжения между этими двумя крайностями — необходимая задача для разработки местной стратегии AI‑управления.
Эта статья, которая отвечает одной фразой Лекуна на спор о сверхразуме, впервые появилась в Lian News ABMedia.