Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Pre-IPOs
Откройте полный доступ к глобальным IPO акций
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Что такое Token? Вступительный курс по пониманию AI
1. Большие модели AI вообще не могут напрямую обрабатывать наш исходный текст, вся первая стадия обработки — это преобразование текста в Token
2. Говоря проще, Token — это минимальная единица обработки, на которую разбивается текст перед подачей модели
3. Один Token может быть целым словом, частью слова, знаками препинания или даже просто пробелом
4. Обычно часто используемые слова разбиваются всего на один Token, а длинные или редкие слова часто разбиваются на более мелкие части, например, английское кодирование (encoding) разбивается на две части: encod+ing
5. Вот универсальный ориентир для перевода: один Token примерно соответствует 4 английским символам или 3/4 английского слова; однако это значение не фиксировано и зависит от языка и используемого токенизатора
6. Полный процесс обработки выглядит так: сначала текст разбивается на токены, затем каждый Token отображается в соответствующий числовой ID, после чего ID преобразуются в вектор, который модель может распознать; пройдя эти три шага, модель уже начнет обрабатывать ваш контент
7. Также часто слышим термин «окно контекста» — оно тоже измеряется в Tokenах — лимит Tokenов в окне напрямую определяет, сколько информации модель сможет «запомнить» за один раз
8. И последний момент, который, безусловно, интересует всех: Token — это основная единица ценообразования в генеративных AI, и наши расходы на использование AI считаются по количеству Tokenов
Вышеописанное — лишь вершина айсберга, а внутренняя логика Token гораздо интереснее, чем кажется.