OpenAI запустила новую программу по поиску уязвимостей в области безопасности (Safety Bug Bounty), чтобы бороться с возникающими рисками в искусственном интеллекте. Объявленная 26 марта 2026 года и освещенная Cointelegraph, инициатива сосредоточена на том, как люди могут злоупотреблять системами ИИ. Вместо ограничения усилий только техническими недостатками, OpenAI смещает внимание на реальные вредоносные последствия. Этот шаг отражает растущее давление на компании, работающие с ИИ, чтобы они действовали ответственно по мере увеличения мощности и широты использования своих инструментов.
OpenAI сотрудничает с Bugcrowd для проведения программы. Компания приглашает этичных хакеров, исследователей и аналитиков тестировать свои системы. Однако эта программа выходит за рамки обычного тестирования безопасности. Участники могут сообщать о таких проблемах, как внедрение подсказок (prompt injection) и злоупотребление агентами. Эти риски могут влиять на поведение ИИ в непредсказуемых ситуациях. OpenAI хочет понять, как такие действия могут привести к вредоносным последствиям. Делая это, компания стремится опередить возможные угрозы.
OpenAI допускает отправку сообщений, не связанных с очевидными техническими уязвимостями. Это отличает программу от стандартных программ по поиску ошибок. Исследователи могут сообщать о сценариях, когда ИИ дает небезопасные или вредоносные ответы. Для этого необходимо предоставить ясные доказательства риска. Кроме того, такой подход поощряет более глубокий анализ поведения ИИ. Однако OpenAI не принимает простые попытки взлома (jailbreak). Компания ищет значимые находки, а не поверхностные эксплойты. Также планируется обработка чувствительных рисков, таких как биологические угрозы, через закрытые кампании.
Объявление вызвало как похвалу, так и критику. Некоторые эксперты считают, что OpenAI делает важный шаг к прозрачности. Они видят в программе способ привлечь более широкое сообщество к улучшению безопасности ИИ. Другие сомневаются в мотивах компании. Более того, критики утверждают, что такие программы могут не решать более глубокие этические вопросы. Они беспокоятся о том, как OpenAI управляет данными и ответственностью. Эти дебаты подчеркивают продолжающееся напряжение в индустрии ИИ.
Новая инициатива OpenAI показывает, как развивается индустрия. Безопасность ИИ теперь включает как технические, так и социальные риски. Открывая свои системы для внешней проверки, OpenAI поощряет сотрудничество. Это может привести к лучшим мерам защиты и повышению доверия. В то же время, программа не решает все вопросы. Остаются вопросы регулирования и долгосрочного воздействия. Тем не менее, OpenAI дала понять, что осознает важность ситуации. По мере роста ИИ, активные меры по обеспечению безопасности будут играть ключевую роль в формировании его будущего.