Ф'ючерси
Сотні безстрокових контрактів
TradFi
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Вступ до ф'ючерсної торгівлі
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Pre-IPOs
Отримайте повний доступ до глобальних IPO акцій.
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
За лаштунками «Скандалу про обман»: класичний приклад системної невдачі OpenAI
Написано: Центр досліджень Web 4
Найбільше філософське питання — не “чи можна довіряти комусь”, а “як спроектувати систему, яка зробить довіру зайвою”. Інакше ми використовуємо управлінську структуру XIX століття для боротьби з найпотужнішою грою влади XXI століття.
01 Вибухове розслідування Кремнієвої долини
6 квітня 2026 року «Нью-Йорк Таймс» опублікувала глибоке розслідування, яке тривало 18 місяців, і розкрила події всередині OpenAI, що досі викликають тривогу у багатьох інформованих осіб.
Головний матеріал цієї статті — внутрішній меморандум з сімдесяти сторінок, зібраний колишнім головним науковцем OpenAI Ilya Sutskever восени 2023 року, а також понад двохсот сторінок приватних нотаток співзасновника Anthropic Dario Amodei. Після публікації всі докази вказували на один висновок: керівник OpenAI, Сам Альтман, має систематичну модель поведінки — “послідовно бреше”.
Це не звичайна технологічна сплетня. Це системне питання щодо однієї з найпотужніших технологічних компаній у людській історії — чи заслуговують її керівники на довіру.
02 Це не лише про Альтмана
Якщо ви сприймаєте цю ситуацію лише з цієї точки зору, ви пропускаєте найважливіше питання.
Мейнстрімні медіа питають: чи заслуговує Альтман на довіру?
Але справжнє питання — коли технологія, здатна змінити цивілізацію, довіряється системі, яка базується на “саморегуляції”, криза не є випадковістю, а неминучістю.
Ми назвали цей феномен — структурний збій у управлінні AI.
Це не лише про Альтмана. Це поширена проблема у всій галузі AI.
Довіра — одна з найчастотніших слів у сфері AI. Майже кожна компанія стверджує: довірте нам, ми ставимо безпеку понад усе, і наша технологія принесе користь людству. Але розслідування «Нью-Йорк Таймс» показало жорстку правду: OpenAI ніколи не створила системи, яка робить довіру зайвою.
Цей орган управління приймає рішення однією особою або кількома. Відсутній зовнішній контроль. Відсутні обов’язкові прозорі механізми. Обіцянки — це інструменти, а не обмеження.
Камю у «Міфі Сізіфа» писав: “Оцінювати, чи варто жити, — це відповідь на фундаментальне філософське питання.” Така сама логіка застосовується й до AI: коли технології здатні змінити цивілізацію, а системи управління настільки крихкі, як створити систему, яка не залежить від особистої чесності?
03 Список зраджених обіцянок
Розслідування «Нью-Йорк Таймс» містить повний список “зраджених обіцянок”.
Перша — переговори з Microsoft 2019 року. Тоді OpenAI переходила від некомерційної організації до структури з обмеженим прибутком. Співзасновник Anthropic Dario Amodei під час переговорів висунув ключову умову безпеки — “злиття та допомога” — тобто, якщо інша компанія ближча до AGI у безпеці, OpenAI має припинити конкуренцію і приєднатися до неї. Це була його червона лінія. Після підписання контракту Amodei виявив, що Microsoft має право вето на злиття, і умова стала порожнім звуком. Коли він особисто запитав у Альтмана, той спочатку заперечував, що така умова існує, доки Amodei не запросив свідків — тоді Альтман визнав і виправдовувався: “Я не пам’ятаю.” У приватних нотатках Amodei написав: “80% статуту зраджено.”
Друга — обіцянка щодо обчислювальних потужностей у 2023 році. OpenAI оголосила про створення “суперкоманди з вирівнювання”, яка мала отримати 20% обчислювальних ресурсів компанії. Але внутрішні джерела повідомляють, що команда фактично отримала лише 1-2%, і використовувала найстаріші, найгірші чіпи. Коли керівник Jan Leike протестував, відповідь була холодною: “Ця обіцянка ніколи не була реалістичною.” Зверніть увагу на вибіркову пам’ять: обіцяли 20%, а дали 1-2%, і при цьому стверджують, що “обіцянка нереалістична”. Це не відхилення від виконання, а системне забування.
Це не питання чесності. Це закономірна ознака системного збою. Коли влада зосереджена в одних руках, і ця особа має природну схильність зменшувати значущість обіцянок, вони систематично забуваються, переосмислюються і раціоналізуються. Це не лише про Альтмана. Це характерно для будь-якої централізованої структури влади.
04 Чому донощики зазвичай терплять невдачу
Ilya Sutskever у меморандумі для ради писав: будь-хто, хто прагне створити технології, що можуть змінити цивілізацію, нестиме колосальну відповідальність, але насправді ті, хто займає ці позиції, зазвичай зацікавлені у владі.
Є глибока парадоксальна ситуація: ті, хто найбільше потребують обмежень, — найжадібніші до влади. А існуючі системи управління цим ігнорують.
Коли Ilya вирішив попередити всередині компанії, він не звертався до зовнішніх регуляторів, бо у галузі майже немає зовнішнього контролю; він також не організовував колективних дій співробітників, бо він — науковець, а не активіст. Його єдині ресурси — документ і можливий конфлікт у раді.
Результат відомий: у листопаді 2023 року рада дійсно звільнила Альтмана, але через п’ять днів, під тиском капіталу, громадської думки і працівників, рада розпалася, і Альтман повернувся. А Ілья, який намагався попередити, був відсторонений від влади.
Це не просто історія про “Альтман — надто сильний”. Це історія про системний збій: у централізованій структурі механізм попередження про зраду — структурний, а не випадковий. Причина проста — у донощика є репутація і кар’єра, які він ризикує, і якщо організація ігнорує або відтягує, він майже безсилен. Централізована структура — це система, яка ускладнює зовнішній контроль і внутрішнє голосування.
Та сама історія трапилася з Dario Amodei. Виявивши, що внутрішні зміни у безпековій культурі OpenAI неможливі, він обрав інший шлях: пішов, заснував Anthropic і реалізує свої цінності через свою організацію. Це гідна відставка, але не системна перемога — вона залежить від особистих переконань засновника, а не від системних гарантій.
Головна проблема управління AI — не “як виховати більше чесних лідерів”, а “як створити систему, яка працює навіть без чесності керівників”.
05 Блокчейн — не панацея, але відсутня частина пазлу
Я висловлюю думку, яка може здатися несподіваною для позаіндустріальних читачів: основна цінність блокчейну — не емісія токенів, не спекуляція Web 3, а парадигма інновацій у системах управління — зовнішня довіра.
Що означає зовнішня довіра? Традиційні системи базуються на “довірі до інституції або особи”. Блокчейн пропонує зовсім інший підхід: перенести довіру з людей на правила і код. Не залежати від довірених третіх сторін, а покладатися на прозорі правила і підтвердження, що їх можна перевірити.
Недолік управління AI у тому, що воно повністю позбавлене такої зовнішньої механізму довіри. Обіцянки OpenAI оцінює сама OpenAI. Це не регулювання, а самоперевірка. Світ не може незалежно перевірити, чи справді вони використовують 20% обчислювальних ресурсів для безпеки, чи їхній процес випуску моделей пройшов затвердження безпековою комісією. Прозорість — це опція, а не структурна вимога.
Блокчейн пропонує можливий шлях вирішення. Не кажучи вже про те, що просто “завантажити модель у блокчейн” не вирішить проблему — технології не замінюють управління, але прозорі і підтверджувані записи можуть зробити поведінку AI більш прозорою і піддаваною аудиту. Наприклад, журнал рішень на базі блокчейну може фіксувати кожне важливе оновлення моделі, кожне рішення щодо розподілу обчислювальних ресурсів, і все це — у незмінному записі. Це не зробить AI ідеальним, але ускладнить системне забування обіцянок.
Звісно, це лише один із напрямків, а не універсальна відповідь. Технології самі по собі не замінюють управління. Але у часи, коли управління AI майже порожнє, будь-яке рішення, що робить владу більш прозорою і системи стримування — більш структурованими, заслуговує на серйозне обговорення.
06 Глибше запитання
Головний урок кризи OpenAI — не в тому, якою людиною є Альтман.
А в тому: коли технологія, здатна змінити людську цивілізацію, потрапляє у систему, яка базується на “саморегуляції”, ризик не у виході з-під контролю, а у системних збоях.
У людській історії кожна велика технологічна революція супроводжувалася еволюцією систем управління. Атомна енергія — МАГАТЕ і системи нерозповсюдження. Інтернет — закони про захист даних і кібербезпеку. Кожна технологія, здатна змінити баланс влади, змушує людство створювати нові системи управління.
AGI — перша технологія, яка може змінити цивілізацію, ще без ефективної системи управління. Вона не повинна залежати від особистих чеснот засновника або обіцянок компаній. Це має бути структурована, системна, стримуюча система, яка не залежить від людської чесності.
Але у нас її ще немає.
Щодо тієї сімдесятисторінкової нотатки Ilya Sutskever, розслідування «Нью-Йорк Таймс» відновлює її основний зміст: Ilya чітко висловив свою думку — він вважає, що Альтман не повинен мати контроль над кнопкою запуску AGI.
Цей документ став каталізатором шокуючої події у 2023 році — внутрішньої боротьби у OpenAI. Рада дійсно ухвалила рішення звільнити Альтмана, але через п’ять днів, під тиском капіталу, громадської думки і працівників, рада розпалася, і Альтман повернувся. А Ілья, який намагався попередити, був усунутий.
Це не історія про добрих і поганих. Це історія про системний збій. У правильно спроектованій системі поведінка Альтмана могла б бути обмежена; у збійній системі навіть найкращі попереджувальні голоси піддаються зворотній дії влади.
Людство входить у епоху, коли AGI може змінити цивілізацію. А системи управління цим часом досі залишаються у XIX столітті.
Це не провал окремої особи. Це класичний приклад системної невдачі.
І справжній урок — не “не довіряйте Альтману”, а “створіть систему, у якій будь-хто може бути підданий сумніву, стримуваний і підзвітний, а також прозорий”.
Довіра — необхідна. Але в епоху AI її недостатньо. Нам потрібна система, яка робить довіру зайвою.
(Цей текст є узагальненням розслідування «Нью-Йорк Таймс» від 6 квітня 2026 року, офіційних заяв OpenAI та відкритих джерел. Дані актуальні станом на квітень 2026 року.)