في 6 يونيو، أفادت PANews بأن OpenAI قدمت اليوم تفاصيل مفصلة حول البنية التحتية للبحوث المستخدمة في تدريب نماذج الذكاء الاصطناعي المتقدمة بشكل آمن. تدير OpenAI أكبر كمبيوتر خارق للذكاء الاصطناعي في العالم، بهدف تعزيز الجبهة في مجال الذكاء الاصطناعي وضمان الأمان. المهمة الأساسية لهذه البنية التحتية هي حماية الأصول الحساسة مثل أوزان النموذج وأسرار الخوارزمية. لتحقيق هذا الهدف، تتضمن بنية OpenAI عدة مكونات أمان رئيسية:
أساس الهوية: استخدام Azure Entra ID للتحقق من الهوية وإدارة الترخيص ، لضمان التحقق من المخاطر وكشف تسجيل الدخول غير المعتاد عند إنشاء الجلسة.
تكوين كوبرنيتيس: يتم استخدام كوبرنيتيس لإدارة وترتيب عبء العمل ، وحماية بيئة البحث من خلال سياسات RBAC (التحكم في الوصول المستند إلى الدور) ومراقب القبول.
تخزين البيانات الحساسة: من خلال خدمة إدارة المفاتيح لحماية الاعتمادات والمعلومات الحساسة الأخرى، يمكن لحمولات العمل المرخصة والمستخدمين فقط الوصول إلى هذه البيانات.
إدارة الهوية والوصول (IAM): تعتمد استراتيجية الوصول بـ "أدنى صلاحية"، وتدير خدمة AccessManager المطورة داخليًا صلاحيات وصول الباحثين والمطورين، وتقدم آلية موافقة متعددة للتحكم في الوصول إلى الموارد الحساسة.
الأمان CI/CD: ضبط الوصول إلى أنابيب CI/CD بدقة لضمان توافق وأمان تكوينات البنية التحتية للشفرة.
OpenAI تنفذ أيضًا controlli di sicurezza a più livelli per prevenire la divulgazione dei pesi dei modelli e utilizza red team interni ed esterni per testare la sicurezza. Inoltre, OpenAI sta esplorando standard di sicurezza e conformità unici per i sistemi di intelligenza artificiale per affrontare le sfide uniche nella protezione della tecnologia IA.