OpenAI ने बढ़ते AI सुरक्षा जोखिमों से निपटने के लिए सुरक्षा नेतृत्व का विस्तार किया

हाल ही में, OpenAI ने ‘हेड ऑफ प्रिपेयर्डनेस’ पद के लिए तत्काल भर्ती की घोषणा की है, जिसके लिए 555,000 डॉलर का पैकेज दिया जा रहा है। इस पद का मुख्य उद्देश्य साइबर सुरक्षा से जुड़ी गंभीर सुरक्षा कमजोरियों का पता लगाने से मॉडलों को रोकना और तीव्र नवाचार के साथ सुरक्षा को सुचारू रूप से विकसित करना है।

OpenAI expands security leadership to tackle growing AI security risks

एआई आधारित प्रणालियों में उभरती सुरक्षा चुनौतियां 

  • आधुनिक कृत्रिम बुद्धिमत्ता प्रणालियाँ बड़ी मात्रा में संवेदनशील जानकारी का उपयोग करती हैं। यदि सिस्टम की सेटिंग्स सही न हों या सुरक्षा कमजोर हों, तो अनधिकृत व्यक्ति निजी डेटा तक पहुँच बना सकते हैं। जनवरी 2025 में सुरक्षा शोधकर्ताओं ने एक ऐसे एआई चैटबॉट का उदाहरण उजागर किया, जहाँ असुरक्षित क्लाउड डेटाबेस के कारण लाखों चैट रिकॉर्ड और एपीआई कुंजियाँ खुले में उपलब्ध हो गईं। इस तरह की घटनाएँ उपयोगकर्ता विश्वास को गंभीर रूप से प्रभावित करती हैं।
  • एआई मॉडल जिस इनपुट पर काम करते हैं, वही उनकी सबसे बड़ी कमजोरी भी बन सकता है। प्रॉम्प्ट इंजेक्शन में हमलावर जानबूझकर ऐसा भाग जोड़ते हैं, जिससे मॉडल अनचाहा व्यवहार करने लगे। इस खतरे को NIST और यूके की राष्ट्रीय साइबर सुरक्षा एजेंसी जैसी संस्थाओं ने गंभीर श्रेणी में रखा है। ऐसे हमलों से डेटा लीक, गलत जानकारी का प्रसार, और सिस्टम की विश्वसनीयता को नुकसान पहुँच सकता है।
  • एआई मॉडल का व्यवहार उसके ट्रेनिंग डेटा पर निर्भर करता है। यदि इस डेटा में जानबूझकर भ्रामक या पक्षपाती सामग्री मिला दी जाए, तो मॉडल गलत निर्णय देने लगता है। इसे डेटा पॉइज़निंग कहा जाता है। 
  • 2025 के अंत में एक नया खतरा सामने आया, जिसमें यह पाया गया कि कुछ एआई चैट प्रणालियाँ एन्क्रिप्टेड संचार के बावजूद पूरी तरह सुरक्षित नहीं हैं। हमलावर पैकेट आकार और समय जैसे मेटाडेटा का विश्लेषण करके बातचीत की प्रकृति का अंदाज़ा लगा सकते हैं। इसे मेटाडेटा लीक हमला कहा जाता है, जो निजी संवादों की गोपनीयता पर सवाल खड़े करता है।
  • एआई मॉडल विकसित करने में कंपनियाँ भारी निवेश करती हैं। इसके बावजूद, कुछ हमलावर आउटपुट का विश्लेषण करके मॉडल की क्षमताओं की नकल करने की कोशिश करते हैं। इस प्रक्रिया को मॉडल एक्सट्रैक्शन कहा जाता है। इससे बौद्धिक संपदा की हानि, सुरक्षा फीचर्स को दरकिनार करने का खतरा और प्रतिस्पर्धात्मक नुकसान हो सकता है।

 

उन्नत कृत्रिम बुद्धिमत्ता का समाज पर प्रभाव

  • कई युवा तनाव, अकेलेपन और भावनात्मक समस्याओं के समाधान के लिए एआई चैटबॉट्स का सहारा ले रहे हैं। 2025 में अमेरिका में किए गए एक अध्ययन से पता चला कि 12 से 21 वर्ष आयु वर्ग के लगभग 13 प्रतिशत युवा मानसिक स्वास्थ्य सलाह के लिए एआई टूल्स का उपयोग कर रहे हैं। वहीं, युवा वयस्कों में यह आंकड़ा 22 प्रतिशत तक पहुँच गया। विशेषज्ञों का मानना है कि बिना मानवीय निगरानी के एआई उपयोग से जोखिम भी बढ़ते हैं। कुछ मामलों में एआई गलत धारणाओं को मजबूत कर सकता है, साजिशी सोच को बढ़ावा दे सकता है, इससे मानसिक असंतुलन और आत्मघाती प्रवृत्तियों का खतरा बढ़ सकता है।
  • एआई का तेज़ प्रसार रोजगार संरचना को भी बदल रहा है। अंतरराष्ट्रीय आर्थिक संस्थाओं के अनुमान बताते हैं कि 2030 तक वैश्विक कार्यों का लगभग 30 प्रतिशत हिस्सा एआई द्वारा स्वचालित या परिवर्तित हो सकता है। इसका प्रभाव दुनिया भर में करीब 30 करोड़ नौकरियों पर पड़ सकता है। विशेष रूप से मध्यम कौशल और दोहराए जाने वाले कार्य, जैसे लिपिकीय, प्रशासनिक और ग्राहक सेवा से जुड़े रोजगार, अधिक जोखिम में हैं। नौकरी असुरक्षा, आय में अनिश्चितता और भूमिका समाप्त होने का डर लोगों में चिंता, तनाव और उद्देश्यहीनता की भावना को जन्म दे सकता है।
  • उन्नत एआई प्रणालियाँ अक्सर ऐतिहासिक डेटा पर प्रशिक्षित होती हैं, जिसमें पहले से मौजूद सामाजिक पक्षपात शामिल हो सकता है। शोध बताते हैं कि कुछ भाषा मॉडल और निर्णय प्रणाली अनजाने में नस्लीय पूर्वाग्रह दिखा सकती हैं। उदाहरण के लिए, उच्च प्रतिष्ठा वाली नौकरियों के लिए कुछ समूहों को कम उपयुक्त मानना या भाषा-शैली के आधार पर कठोर मूल्यांकन करना। यदि इन पूर्वाग्रहों को नियंत्रित नहीं किया गया, तो एआई सामाजिक असमानताओं को और गहरा कर सकता है और तकनीक पर जनता का भरोसा कमजोर हो सकता है।
  • उन्नत एआई ने आतंकवादी खतरों को भी नया आयाम दिया है। एआई की मदद से बड़े पैमाने पर साइबर हमले, बेहद विश्वसनीय गलत सूचना, और स्वचालित ड्रोन हमले संभव हो गए हैं। इससे महत्वपूर्ण बुनियादी ढांचे और आम नागरिकों की सुरक्षा पर गंभीर खतरा उत्पन्न होता है। इन जोखिमों से निपटने के लिए अंतरराष्ट्रीय नियम, मजबूत साइबर सुरक्षा ढाँचा, और देशों के बीच सहयोग अत्यंत आवश्यक है।

 

कृत्रिम बुद्धिमत्ता जोखिमों से निपटने हेतु वैश्विक शासन प्रयास

  • संयुक्त राष्ट्र (UN) वैश्विक स्तर पर डिजिटल तकनीकों और एआई के लिए साझा सिद्धांत विकसित करने में अग्रणी भूमिका निभा रहा है। सितंबर 2024 में आयोजित समिट ऑफ द फ्यूचर के दौरान विश्व नेताओं ने ग्लोबल डिजिटल कॉम्पैक्ट को अपनाया। यह समझौता एआई मानकों, डेटा गवर्नेंस, साइबर सुरक्षा और डिजिटल विश्वास जैसे विषयों पर अंतरराष्ट्रीय सहयोग को बढ़ावा देता है। इसका मुख्य उद्देश्य यह सुनिश्चित करना है कि एआई का उपयोग मानवाधिकारों का सम्मान करे और संयुक्त राष्ट्र के 2030 सतत विकास लक्ष्यों को मजबूत बनाए। वर्ष 2025 के मध्य में अमेरिका ने अपने एआई नियामक ढांचे को और सुदृढ़ करते हुए अपने नियामक निकाय का नाम बदलकर Center for AI Standards and Innovation रखा, जिससे वैश्विक मानकीकरण में सक्रिय भागीदारी का संकेत मिलता है।
  • यूरोपीय संघ (EU) ने एआई शासन के लिए दुनिया के सबसे सुव्यवस्थित ढांचों में से एक तैयार किया है। 2024 में स्वीकृत EU AI Act एआई प्रणालियों को उनके जोखिम स्तर के आधार पर वर्गीकृत करता है। जो प्रणालियाँ सुरक्षा, मौलिक अधिकारों और राष्ट्रीय सुरक्षा के लिए अधिक खतरा पैदा करती हैं, उन पर कड़े नियम लागू किए गए हैं। इस कानून के तहत एआई डेवलपर्स को जोखिम मूल्यांकन, मानवीय निगरानी, और पारदर्शिता सुनिश्चित करनी होती है, ताकि किसी भी एआई टूल को लागू करने से पहले उसके सामाजिक प्रभाव को समझा जा सके। 
  • भारत ने एआई शासन के लिए एक लचीला और भविष्य उन्मुख मॉडल अपनाया है। नवंबर 2025 में भारत ने अपने AI Governance Guidelines जारी किए, जिनमें अभी अलग से कोई स्वतंत्र एआई कानून नहीं बनाया गया है। इसके बजाय, भारत मौजूदा कानूनों जैसे सूचना प्रौद्योगिकी अधिनियम, 2000, डिजिटल व्यक्तिगत डेटा संरक्षण अधिनियम, 2023, और उपभोक्ता संरक्षण कानूनों का उपयोग कर एआई से जुड़े जोखिमों को नियंत्रित करता है। भारतीय ढांचा सक्षमकरण, जोखिम न्यूनीकरण, जवाबदेही और निगरानी पर केंद्रित है, ताकि नवाचार बाधित न हो। साथ ही, सरकार AI Governance Group और AI Safety Institute जैसे संस्थागत निकाय स्थापित करने की योजना बना रही है, जो नीति समन्वय और सुरक्षा परीक्षण में सहायता करेंगे।

 

ओपनएआई के बारे मे:

  • ओपनएआई एक अमेरिकी कृत्रिम बुद्धिमत्ता अनुसंधान और विकास संगठन है, जिसकी शुरुआत वर्ष 2015 में हुई। 
  • इसकी स्थापना एक गैर-लाभकारी अनुसंधान प्रयोगशाला के रूप में की गई थी। संस्थान का मूल उद्देश्य ऐसी कृत्रिम सामान्य बुद्धिमत्ता (AGI) विकसित करना है, जो पूरे मानव समाज के लिए उपयोगी और सुरक्षित हो।
  • ओपनएआई की संरचना दो स्तरों पर कार्य करती है। पहला स्तर है OpenAI Foundation, जो गैर-लाभकारी निगरानी संस्था के रूप में काम करता है और संस्थान के दीर्घकालिक उद्देश्यों की रक्षा करता है। दूसरा स्तर है OpenAI Group PBC, जो एक पब्लिक बेनिफिट कॉर्पोरेशन है और व्यावसायिक उत्पादों व तकनीकी तैनाती की जिम्मेदारी संभालता है।  
  • वर्तमान में सैम ऑल्टमैन ओपनएआई के मुख्य कार्यकारी अधिकारी (CEO) हैं और संगठन के सबसे प्रमुख चेहरों में गिने जाते हैं।
  • ओपनएआई ने दुनिया की कुछ सबसे प्रभावशाली एआई प्रणालियाँ विकसित की हैं, जिन्होंने तकनीक के उपयोग का तरीका बदल दिया है।
  • ChatGPT: यह एक उन्नत जनरेटिव एआई चैटबॉट है, जो संवाद कर सकता है, प्रश्नों के उत्तर देता है और अनेक कार्यों में सहायता करता है। कम समय में यह दुनिया के सबसे तेज़ी से बढ़ने वाले ऐप्स में शामिल हो गया और इसके सैकड़ों मिलियन उपयोगकर्ता हैं।
  • GPT श्रृंखला: GPT-2 से शुरू होकर GPT-3 और फिर GPT-5 (2025) तक पहुँची यह श्रृंखला बड़े भाषा मॉडल्स का उदाहरण है। ये मॉडल प्राकृतिक भाषा समझते हैं, तर्क करते हैं और विविध समस्याएँ हल करते हैं।
  • DALL-E: यह एक टेक्स्ट-से-इमेज जनरेशन मॉडल है, जो शब्दों के आधार पर चित्र बनाता है और रचनात्मक उद्योगों में नई संभावनाएँ खोलता है।
  • Whisper: यह तकनीक स्पीच-टू-टेक्स्ट ट्रांसक्रिप्शन के लिए उपयोग की जाती है और बहुभाषी संवाद को आसान बनाती है।
  • SearchGPT / Atlas Browser: ये उपकरण एआई को खोज और ब्राउज़िंग अनुभव के साथ जोड़ते हैं, जिससे जानकारी तक पहुँच और अधिक स्मार्ट होती है।
  • Sora: यह एक एआई-आधारित वीडियो निर्माण प्रणाली है, जो टेक्स्ट संकेतों से वीडियो तैयार कर सकती है।