OpenAI के एक पूर्व कर्मचारी ने कंपनी की कड़ी आलोचना की और इसकी तुलना टाइटैनिक बनाने वाली कंपनी से की।

OpenAI | Roglance News

OpenAI के पूर्व सुरक्षा कर्मचारी William Saunders ने हाल ही में एआई कंपनी की तुलना व्हाइट स्टार लाइन से की है, जिस कंपनी ने टाइटैनिक का निर्माण किया था। OpenAI की सुपरअलाइनमेंट टीम में तीन साल तक काम करने वाले Saunders ने एक साक्षात्कार में बताया कि उन्होंने इस्तीफा इसलिए दिया क्योंकि वह "एआई टाइटैनिक के लिए काम करना नहीं चाहते थे"।

OpenAI में अपने कार्यकाल के दौरान, Saunders ने सवाल उठाया कि क्या कंपनी नासा अपोलो कार्यक्रम या टाइटैनिक से अधिक मिलती-जुलती है। उनकी चिंताएँ OpenAI की पेड उत्पादों को लॉन्च करते समय आर्टिफिशियल जनरल इंटेलिजेंस (AGI) हासिल करने की योजना पर केंद्रित थीं। Saunders के अनुसार, कंपनी सुरक्षा और जोखिम मूल्यांकन पर ध्यान केंद्रित करने के बजाय नए "चमकदार उत्पादों" के निर्माण को प्राथमिकता देती है, जिससे यह अपोलो कार्यक्रम की तरह कम हो जाता है।

Saunders ने उल्लेख किया कि अपोलो कार्यक्रम की विशेषता जोखिमों का सावधानीपूर्वक अनुमान लगाना और उनका आकलन करना, गंभीर समस्याओं के अनुकूल होने के लिए "पर्याप्त अतिरेक" बनाए रखना था, जैसा कि अपोलो 13 के साथ हुआ था। इसके विपरीत, व्हाइट स्टार लाइन ने टाइटैनिक को जलरोधी डिब्बों के साथ बनाया और इसे डूबने योग्य नहीं बताकर प्रचारित किया, लेकिन पर्याप्त जीवनरक्षक नौकाएं उपलब्ध नहीं कराईं, जिसके परिणामस्वरूप अंततः त्रासदी हुई जब प्रसिद्ध आपदा घटित हुई।


OpenAI के पूर्व कर्मचारी को डर है कि कंपनी अपने मौजूदा (और कथित रूप से अपर्याप्त) सुरक्षा उपायों पर बहुत अधिक निर्भर करती है, और सुझाव दिया कि OpenAI को संभावित खतरों की जांच करने के लिए नए एआई मॉडल जारी करने में देरी करनी चाहिए। Saunders, जिन्होंने एआई भाषा मॉडल के व्यवहार को समझने पर केंद्रित एक समूह का नेतृत्व किया, ने यह मूल्यांकन करने के लिए तकनीकों को विकसित करने की आवश्यकता व्यक्त की कि क्या ये सिस्टम "खतरनाक क्षमताओं या प्रेरणाओं को छिपाते हैं"।

✲  OpenAI की प्रतिक्रिया और Saunders की निराशा

Saunders ने OpenAI के अब तक के कार्यों पर भी अपनी निराशा व्यक्त की। फरवरी में, उन्होंने कंपनी छोड़ दी, और मई में, OpenAI ने अपने सबसे उन्नत एआई मॉडल, जीपीटी-4 को जारी करने के तुरंत बाद सुपरअलाइनमेंट टीम को भंग कर दिया। सुरक्षा चिंताओं के प्रति OpenAI की प्रतिक्रिया और उनके विकास की त्वरित गति की विभिन्न कर्मचारियों और विशेषज्ञों द्वारा आलोचना की गई है, जो भविष्य की आपदाओं को रोकने के लिए अधिक सरकारी नियंत्रण की आवश्यकता के बारे में चेतावनी देते हैं।

जून की शुरुआत में, डीपमाइंड और OpenAI के कर्मचारियों के एक समूह ने एक खुला पत्र प्रकाशित किया, जिसमें इस बात पर प्रकाश डाला गया कि मानवता के लिए आपदा को रोकने के लिए वर्तमान निरीक्षण नियम अपर्याप्त हैं। इसके अतिरिक्त, OpenAI के सह-संस्थापक और पूर्व मुख्य वैज्ञानिक इल्या सुत्सकेवर ने सेफ सुपरइंटेलिजेंस शुरू करने के लिए इस्तीफा दे दिया, जो एक स्टार्टअप है जो सुरक्षा पर प्राथमिकता के साथ एआई पर शोध करने पर ध्यान केंद्रित करेगा।

William Saunders के इन विचारों और आलोचनाओं से यह स्पष्ट होता है कि OpenAI जैसी अग्रणी एआई कंपनियों को न केवल नवीनतम तकनीक विकसित करने पर ध्यान देना चाहिए, बल्कि उन तकनीकों की सुरक्षा और जोखिम प्रबंधन पर भी गंभीरता से विचार करना चाहिए। एआई के तेजी से विकास के इस युग में, यह सुनिश्चित करना अनिवार्य है कि मानवता की सुरक्षा को प्राथमिकता दी जाए और संभावित खतरों का उचित मूल्यांकन और प्रबंधन किया जाए।