أعلنت شركة OpenAI عن فتح باب التوظيف لمنصب رفيع المستوى جديد يحمل مسمى «رئيس الجاهزية» Head of Preparedness، في خطوة تعكس تصاعد القلق العالمي من المخاطر المحتملة لتطور أنظمة الذكاء الاصطناعي المتقدمة. ويُعنى هذا المنصب بالتفكير المسبق والمنهجي في أسوأ السيناريوهات الممكنة التي قد تنتج عن استخدام الذكاء الاصطناعي، والعمل على منعها أو تقليل آثارها قبل أن تتحول إلى أزمات حقيقية.
وبحسب ما ورد في صفحة الوظائف الرسمية للشركة، سيكون مقر المنصب في مدينة سان فرانسيسكو، ضمن فريق «أنظمة السلامة» Safety Systems، الذي يُعد من أكثر الفرق حساسية داخل OpenAI، نظراً لمسؤوليته المباشرة عن ضمان تطوير ونشر أقوى نماذج الذكاء الاصطناعي بطريقة آمنة ومسؤولة. ويضطلع هذا الفريق ببناء اختبارات تقييم دقيقة، وتصميم ضوابط وقائية متعددة المستويات، إلى جانب تطوير أطر سلامة شاملة تضمن التزام النماذج بسلوكها المقصود عند استخدامها في العالم الحقيقي.
وتوضح OpenAI أنها استثمرت خلال السنوات الماضية بشكل عميق في مفهوم «الجاهزية»، عبر أجيال متتالية من النماذج المتقدمة، من خلال إنشاء تقييمات أساسية للقدرات، وبناء نماذج تهديدات، وتطوير آليات للحد من المخاطر بالتعاون بين فرق متعددة التخصصات. ومع الارتفاع المستمر في قدرات النماذج، تؤكد الشركة أن تعزيز الجاهزية سيبقى أولوية استراتيجية.
وسيتولى رئيس الجاهزية قيادة الإطار التقني والتنفيذي الذي تعتمد عليه OpenAI لتتبع القدرات المتقدمة والاستعداد للمخاطر الجديدة التي قد تنطوي على أضرار جسيمة أو واسعة النطاق. كما سيكون مسؤولاً عن تنسيق تقييمات القدرات، ونماذج التهديدات، وإجراءات الحماية، بما يضمن منظومة سلامة متكاملة وقابلة للتطبيق العملي، حتى مع تسارع وتيرة تطوير المنتجات.
ويتطلب الدور مستوى عالياً من الحكم التقني، والقدرة على التواصل والتنسيق بين فرق البحث والهندسة والمنتجات، إضافة إلى التعاون مع فرق السياسات والحوكمة وشركاء خارجيين. ويصف الرئيس التنفيذي سام ألتمان هذا المنصب بأنه مخصص للتفكير في جميع الطرق التي قد ينحرف بها الذكاء الاصطناعي نحو نتائج «سيئة للغاية»، في ظل تحديات حقيقية تشمل الصحة النفسية والأمن السيبراني.
