Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Pre-IPOs
Откройте полный доступ к глобальным IPO акций
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Гемма от Google уже ведет себя как Gemini — кто-то заставил её думать как Claude Opus тоже
Если вы следите за местной сценой ИИ, вы, вероятно, знаете Qwopus — модель с открытым исходным кодом, которая пыталась сжать рассуждения Claude Opus 4.6 в Alibaba’s Qwen, чтобы вы могли бесплатно запускать что-то похожее на Opus на собственном оборудовании. Это работало удивительно хорошо. Очевидный недостаток: Qwen — китайская модель, и не все чувствуют себя комфортно с этим. Джекронг, тот же псевдонимный разработчик, стоящий за этим проектом, услышал отзывы. Его ответ — Gemopus — новое семейство доработок в стиле Claude Opus, полностью основанных на открытом исходном коде Gemma 4 от Google. Американская ДНК, та же идея: передовой уровень рассуждений, работающих локально на уже имеющемся у вас оборудовании. Семейство представлено в двух вариантах. Gemopus-4-26B-A4B — более тяжелый вариант — модель с миксом экспертов, которая имеет 26 миллиардов параметров, но активирует примерно 4 миллиарда во время вывода, что означает, что она показывает результаты гораздо выше своего веса на ограниченном оборудовании.
Параметры — это то, что определяет способность ИИ учиться, рассуждать и хранить информацию. Наличие 26 миллиардов параметров дает модели огромную широту знаний. Но активируя только «пробуждая» 4 миллиарда параметров, релевантных вашему конкретному запросу, она обеспечивает высокое качество результатов огромного ИИ, оставаясь достаточно легкой для плавной работы на обычном оборудовании. Другой вариант — Gemopus-4-E4B, модель с 4 миллиардами параметров, разработанная для комфортной работы на современном iPhone или тонком MacBook — без необходимости в GPU. Выбор базовой модели важен. Gemma 4 от Google, выпущенная 2 апреля, создана прямо на базе тех же исследований и технологий, что и Gemini 3 — об этом явно заявлялось при запуске. Это означает, что Gemopus несет в себе то, чего не может заявить ни одна доработанная модель на базе Qwen: ДНК собственной передовой закрытой модели Google, обернутая в стиль мышления Anthropic. Лучшее из обоих миров, более или менее.
Что отличает Gemopus от волны других доработок Gemma, заполняющих Hugging Face прямо сейчас, — это философия. Джекронг сознательно решил не внедрять цепочки рассуждений Claude в веса Gemma — обходной путь, который используют большинство конкурентов. Его аргумент, подкрепленный недавними исследованиями, заключается в том, что засовывать поверхностные рассуждения учителя в модель-ученика не передает настоящих способностей к рассуждению. Это учит имитации, а не логике. «Нет необходимости в чрезмерном воображении или суеверном копировании цепочек мыслей в стиле Claude», — говорится в карточке модели. Вместо этого он сосредоточился на качестве ответов, структурной ясности и естественности диалога — исправляя жесткий тон Gemma, похожий на Википедию, и его склонность лекционировать о вещах, которые вы не спрашивали. Инженер AI-инфраструктуры Кайл Хесслинг провел независимые бенчмарки и опубликовал результаты прямо в карточке модели. Его вердикт по варианту 26B был довольно положительным. «Рад, что протестировал эту модель очень тщательно, и это отличная доработка уже исключительной модели», — написал он в X. «Она отлично справляется с запросами в один шаг на длинных контекстах и работает невероятно быстро благодаря архитектуре MOE (микса экспертов).»
Меньший вариант E4B прошел все 14 основных тестов компетентности — выполнение инструкций, кодирование, математика, многошаговые рассуждения, перевод, безопасность, кэширование — и прошел все 12 тестов на длинный контекст с 30K и 60K токенами. В тестах поиска иголки в стоге сена он прошел 13 из 13 проб, включая тест на миллион токенов с масштабированием YaRN 8× RoPE.
26B нативно расширяется до 131K контекста и до 524K с YaRN, что Хесслинг также подверг стресс-тестированию: «Он также полностью прошел мои простые тесты поиска иголки в стоге сена на расширенном контексте до 524k!» На edge-оборудовании E4B действительно быстр. Джекронг сообщает о 45–60 токенах в секунду на iPhone 17 Pro Max и 90–120 токенах в секунду на MacBook Air M3/M4 через MLX. Архитектура MoE 26B означает, что он плавно разгружает работу на системах с объединенной памятью или GPU с менее чем 10 ГБ VRAM. Хесслинг назвал его своим рекомендуемым вариантом для систем с ограниченной видеопамятью.
Оба варианта доступны в формате GGUF, что позволяет сразу вставлять их в LM Studio или llama.cpp без настройки. Полный код обучения и пошаговое руководство по доработке есть на GitHub Джекронга — такой же пайплайн, как и для Qwopus, с настройками Unsloth и LoRA, воспроизводимыми на Colab. Gemopus не лишен своих шероховатостей. Вызовы инструментов остаются сломанными во всей серии Gemma 4 в llama.cpp и LM Studio — сбои вызовов, несоответствия форматов, циклы — так что если ваш рабочий процесс зависит от использования внешних инструментов агентами, это еще не ваш модель. Сам Джекронг называет его «инженерным исследованием, а не полностью готовым к производству решением», и рекомендует свою серию Qwopus 3.5 для тех, кому нужна более стабильная работа. И поскольку Джекронг сознательно избегал агрессивной дистилляции цепочек мыслей в стиле Claude, не ожидайте, что он будет так же глубоко «опусовским» — это сознательный компромисс ради стабильности, а не упущение.
Для тех, кто хочет углубиться в доработку Gemma специально для рассуждений, есть отдельный проект сообщества — Ornstein от псевдонимного разработчика DJLougen, который использует ту же базу Gemma 4 с 26B и фокусируется на улучшении цепочек рассуждений без опоры на логику или стиль какого-либо стороннего модели. Один честный нюанс: динамика обучения Gemma сложнее, чем у Qwen, для доработчиков — более широкие колебания потерь, большая чувствительность к гиперпараметрам. Сам Джекронг говорит об этом. Если вам нужна более проверенная модель для локальных рабочих процессов, его серия Qwopus 3.5 остается более надежной. Но если вы хотите американскую модель с полировкой в стиле Opus, Gemopus — лучший доступный вариант. В разработке также находится более плотный вариант Gemopus с 31B, и Хесслинг намекает, что это «один из лучших вариантов, точно». Если хотите попробовать запускать локальные модели на собственном оборудовании, ознакомьтесь с нашим руководством по началу работы с локальным ИИ.