Два по 20 миллиардов долларов: OpenAI и Nvidia ведут «войну рассуждений»

NVIDIA и OpenAI вложили по 20 миллиардов долларов в рынок AI-инференционных чипов, Cerebras подала заявку на IPO с оценкой в 35 миллиардов долларов. Эта тихая война за контроль над будущим вычислительных мощностей AI переустанавливает структуру технологического рынка стоимостью сотни миллиардов долларов. Эта статья взята из Wall Street Journal и подготовлена PANews.
(Предыстория: Финансовый отчет NVIDIA показывает рост доходов на 114%, превзойдя ожидания, почему Хуанг Рэньсю не боится удара DeepSeek?)
(Дополнение: The Economist объявляет 2025 год эпохой «AI Agent», но нужно учитывать три сложности)

Содержание статьи

Переключить

  • Что такое inference и почему ключевым словом 2026 года больше не является «обучение»
  • Проблема NVIDIA: чипы, предназначенные для обучения, по природе не подходят для inference
  • 20 миллиардов NVIDIA: признание за крупнейшей в истории сделкой по слиянию и поглощению
  • 20 миллиардов OpenAI: покупка чипов — лишь видимая часть, ключ — участие в капитале
  • Сегодня IPO Cerebras: что вы покупаете

В декабре 2025 года NVIDIA тихо потратила 20 миллиардов долларов на покупку компании Groq, производителя AI-чипов.

17 апреля 2026 года OpenAI объявила о покупке у другой компании — Cerebras — более чем на 20 миллиардов долларов чипов для AI. В тот же день Cerebras официально подала документы на IPO на NASDAQ с оценкой в 35 миллиардов долларов.

Две сделки, почти одинаковые по сумме. Одна — поглощение, другая — покупка. Одна — от крупнейшего продавца AI-чипов в мире, другая — от крупнейшего покупателя AI в мире.

Это не два независимых события, а два симметричных действия в рамках одной войны. Название поля боя — AI inference.

Большинство людей не заметили этой войны. Потому что она не сопровождается взрывами, а лишь финансовыми отчетами и техническими обсуждениями в кругу инженеров Кремниевой долины. Но её влияние может оказаться более глубоким, чем любые AI-выставки за последние два года — потому что она перераспределяет контроль над одним из крупнейших технологических рынков в истории.

Что такое inference и почему ключевым словом 2026 года больше не является «обучение»

Перед обсуждением двух сделок по 20 миллиардов нужно понять один фон: поле битвы AI-чипов переживает смену фокуса.

Обучение и inference — это два этапа потребления вычислительных ресурсов AI. Обучение — создание модели: подача огромных данных нейросети, чтобы она научилась определенной способности. Этот процесс обычно происходит один раз или периодически обновляется. Inference — использование модели: каждый раз, когда пользователь задает вопрос, ChatGPT дает ответ, и за этим стоит запрос inference.

В 2023 году основная часть затрат на AI в мире шла на обучение, inference был второстепенным.

Но эта пропорция быстро меняется.

По данным Deloitte и CES 2026, к 2025 году inference уже занимал 50% всех затрат на AI; к 2026 году эта доля достигнет двух третей. Генеральный директор Lenovo Ян Юаньцин на CES прямо заявил: структура расходов на AI полностью перевернется — с «80% обучение + 20% inference» на «20% обучение + 80% inference».

Логика проста. Обучение — разовая стоимость, inference — постоянные расходы. GPT-4 обучили один раз, но каждый день он отвечает миллионам пользователей, каждая беседа — это запрос inference. После масштабирования расходы на inference значительно превосходят затраты на обучение.

Что это означает? Что самый прибыльный сегмент AI-индустрии — это не обучение, а inference. И для этого нужны совершенно разные архитектуры чипов.

Проблема NVIDIA: чипы, предназначенные для обучения, по природе не подходят для inference

Чипы NVIDIA H100 и H200 созданы для обучения. Их главное преимущество — очень высокая пропускная способность вычислений: обучение требует множества умножений матриц, GPU отлично справляются с параллельными вычислениями на множестве ядер.

Но узким местом inference является не вычислительная мощность, а пропускная способность памяти.

Когда пользователь задает вопрос, чипу нужно перенести веса модели из памяти в вычислительные блоки, чтобы сгенерировать ответ. Этот процесс — «перенос» — и есть настоящее узкое место задержки inference. GPU NVIDIA использует внешнюю высокопроизводительную память (HBM), и этот перенос неизбежно вызывает задержки — для ChatGPT, обрабатывающего тысячи запросов в секунду, эта задержка при масштабировании превращается в реальный узкий проход.

Инженеры OpenAI заметили проблему, когда оптимизировали Codex (инструмент для генерации кода), и обнаружили, что независимо от настроек, скорость отклика ограничена архитектурой GPU NVIDIA.

Другими словами, слабость NVIDIA в inference — не в усилиях, а в архитектуре.

Чип Cerebras WSE-3 идет по совершенно иному пути. Этот чип настолько большой, что требует упаковки на уровне кремния — площадь 46 255 квадратных миллиметров, больше ладони человека — и объединяет 900 тысяч AI-ядер и 44 ГБ сверхскоростной SRAM прямо на одном кристалле. Память расположена прямо рядом с вычислительными ядрами, расстояние «переноса» сокращено с сантиметров до микрометров. В результате inference работает в 15-20 раз быстрее, чем на NVIDIA H100.

Стоит добавить, что NVIDIA не сидит сложа руки. Новая архитектура Blackwell (B200) показывает в inference увеличение производительности в 4 раза по сравнению с H100 и уже внедряется в крупномасштабные системы. Но Blackwell — это движущаяся цель: Cerebras тоже совершенствуется, а на рынке появляются конкуренты, и не только Cerebras.

20 миллиардов NVIDIA: признание в крупнейшей в истории сделке по слиянию и поглощению

24 декабря 2025 года NVIDIA объявила о крупнейшей в своей истории сделке по слиянию и поглощению.

Цель — Groq.

Groq — конкурент Cerebras, тоже специализируется на чипах SRAM, оптимизированных для inference — так называемый LPU (Language Processing Unit), который в публичных тестах считался самым быстрым в мире для inference. NVIDIA потратила 20 миллиардов долларов, чтобы купить все ключевые технологии и команду Groq, включая основателя Джонатана Росса и нескольких ведущих инженеров, работавших в Google TPU.

Это крупнейшее приобретение NVIDIA после покупки Mellanox за 7 миллиардов долларов в 2019 году, в три раза больше.

По мнению аналитиков, важнее не сумма, а послание, которое она передает: NVIDIA считает, что у нее есть структурный пробел в inference, и он настолько велик, что стоит потратить 20 миллиардов, чтобы его закрыть.

Если бы NVIDIA действительно верила, что ее GPU в inference — непобедимы, она не покупала бы Groq. Эта сделка — по сути, покупка технологий на 20 миллиардов долларов, признающая, что архитектура SRAM в inference действительно дает преимущества, и что текущие продукты NVIDIA не могут полностью покрыть этот сегмент. Поэтому за очень дорогую цену покупается технология, которую сама NVIDIA не может реализовать.

Конечно, официальная версия после покупки — «глубокая интеграция с Groq для более полного решения inference». В техническом переводе это означает: «мы поняли, что наши разработки недостаточны, и купили чужие».

20 миллиардов OpenAI: покупка чипов — лишь видимая часть, ключ — участие в капитале

Теперь вернемся к OpenAI.

В январе 2026 года OpenAI и Cerebras подписали трехлетний контракт на закупку вычислительных мощностей на сумму 10 миллиардов долларов — тогда СМИ писали, что «OpenAI диверсифицирует поставщиков чипов», и это было воспринято как обычная практика.

Но 17 апреля появились новые детали, которые кардинально меняют смысл:

Первое — сумма закупки увеличилась с 10 до 20 миллиардов долларов, удвоившись.

Второе — OpenAI получит опционы на акции Cerebras, и с ростом объема закупок доля OpenAI может достигнуть 10% уставного капитала Cerebras.

Третье — OpenAI предоставит Cerebras 1 миллиард долларов на строительство дата-центров — другими словами, OpenAI помогает Cerebras строить фабрики.

Эти три детали рисуют совершенно другую картину: OpenAI не просто покупает чипы, а создает поставщика.

Такой подход — не новость в истории технологий. В 2006 году Apple начала сотрудничество с Samsung по заказу кастомных чипов серии A, изначально — крупные закупки, но со временем Apple все больше контролировала процесс и в итоге сама начала разрабатывать чипы серии M. Контроль цепочки поставок полностью перешел от Intel и Samsung к Apple. Аналогично, OpenAI делает примерно то же самое — но есть важное отличие: Apple с самого начала владела правами на дизайн чипов, а OpenAI пока только закупает их. После выхода Cerebras на биржу, она будет развиваться независимо и обслуживать других клиентов. Конечная цель — не полностью контролировать Cerebras, а создать глубокую взаимозависимую экосистему.

С одной стороны, связывая 20 миллиардов и участие в капитале, OpenAI обеспечивает постоянное наличие inference-вычислительных мощностей вне NVIDIA; с другой — сотрудничает с Broadcom по разработке собственных ASIC-чипов, которые планируется запустить к концу 2026 года. Обе стратегии ведут к автономии в вычислительных ресурсах.

Сегодня IPO Cerebras: что вы покупаете

17 апреля Cerebras официально подала заявку на IPO на NASDAQ с оценкой в 35 миллиардов долларов и планом привлечь 3 миллиарда долларов.

Эта оценка более чем в четыре раза превышает 8,1 миллиарда долларов — оценку на сентябрь 2025 года. В феврале этого года компания завершила раунд финансирования, и ее оценка выросла до 23 миллиарда долларов, а целевая оценка в 35 миллиардов — еще на 52% выше.

Знающие историю Cerebras понимают, что это уже второе попытка выйти на биржу. Первая — в 2024 году — была отменена из-за того, что крупный клиент G42 (государственный инвестиционный фонд Абу-Даби) составлял 83–97% доходов за год, и CFIUS вмешался по соображениям национальной безопасности.

На этот раз G42 исчез из списка акционеров, его место занял OpenAI.

Это означает, что структурная проблема концентрации клиентов у Cerebras еще не решена — крупные клиенты сменились, а зависимость от них осталась. Инвесторы должны решить: лучше ли этот крупный клиент — OpenAI — чем G42; с точки зрения кредитоспособности, OpenAI выглядит лучше, но с точки зрения стратегии — он одновременно и конкурент, и потенциальный партнер. Если в будущем OpenAI начнет самостоятельно выпускать ASIC-чипы, это станет реальной угрозой для Cerebras.

Для справедливости стоит отметить, что Cerebras активно расширяет клиентскую базу, и в проспекте эмиссии планируется указать больше источников дохода, чтобы снизить концентрацию. Но до тех пор, пока не начнется массовое производство собственных чипов OpenAI, этот вопрос остается открытым.

Покупая акции Cerebras, вы одновременно делаете ставку: OpenAI продолжит выбирать Cerebras, а собственные ASIC-чипы OpenAI не появятся раньше времени. Обе эти гипотезы — не подтверждены.

Конечно, есть и оптимистичные причины: если рынок inference продолжит расти по прогнозам, даже небольшая доля Cerebras в этом сегменте может принести очень большие доходы. Вопрос не в том, есть ли у Cerebras шанс, а в том, отражает ли цена в 35 миллиардов самые оптимистичные сценарии.

Две сделки по 20 миллиардов — симметричные по времени: одна — от крупнейшего продавца AI-чипов, покупающего конкурента; другая — от крупнейшего покупателя, создающего компанию, конкурирующую с NVIDIA.

Первое — это защита: NVIDIA за счет самой высокой цены закрывает технологический разрыв, который сама не может устранить.

Второе — это наступление: OpenAI тратит деньги на создание альтернативной инфраструктуры inference и одновременно получает долю в этом новом рынке.

Эта война идет без выстрелов, но поток капитала говорит сам за себя. Обе сделки ясно показывают: контроль над инфраструктурой inference в AI — предмет борьбы. И этот сегмент к 2026 году займет две трети всех вычислительных затрат отрасли.

IPO Cerebras — сигнал начала этой войны.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить