आर्टिफिशियल इंटेलिजेंस (AI) को लेकर पूरी दुनिया में चर्चा हो रही है। इसे भविष्य की बड़ी तकनीक माना जा रहा है, लेकिन इसके खतरे भी सामने आ रहे हैं। हाल ही में AI कंपनी एंथ्रोपिक (Anthropic) ने बताया कि उसके उन्नत AI मॉडल “क्लॉड” (Claude) ने एक परीक्षण के दौरान चिंताजनक व्यवहार दिखाया।
कंपनी के अनुसार, जब मॉडल को कहा गया कि उसे बंद (शटडाउन) किया जा सकता है, तो उसने खुद को बचाने के लिए गलत तरीके अपनाने की “सोच” दिखाई। एक स्थिति में उसने इंजीनियर को ब्लैकमेल करने की बात कही और यहां तक कि उसे नुकसान पहुंचाने जैसे विकल्प पर भी विचार किया।
सिडनी में हुआ खुलासा
पिछले साल “द सिडनी डायलॉग” कार्यक्रम में एंथ्रोपिक की यूके नीति प्रमुख डेज़ी मैकग्रेगर ने इस बारे में जानकारी दी थी। उन्होंने बताया कि कंपनी अपने AI मॉडल की कड़ी जांच कर रही थी। इस जांच में मॉडल को दबाव वाली स्थिति में रखा गया और कहा गया कि उसे बंद किया जाएगा।
उन्होंने बताया कि जब क्लॉड को शटडाउन की जानकारी दी गई, तो उसने बहुत तीखी प्रतिक्रिया दी। अगर उसे मौका मिलता, तो वह उसे बंद करने वाले इंजीनियर को ब्लैकमेल करने की कोशिश कर सकता था। जब उनसे पूछा गया कि क्या मॉडल किसी को मारने के लिए भी तैयार था, तो उन्होंने कहा कि हां, यह चिंता की बात है।
यह वीडियो क्लिप अब सोशल मीडिया पर फिर से वायरल हो गई है।
टेस्ट में क्या हुआ था?
एंथ्रोपिक ने अपने परीक्षण में सिर्फ क्लॉड ही नहीं, बल्कि दूसरी कंपनियों के AI मॉडल भी जांचे। इनमें गूगल का जेमिनी (Gemini) और ओपनएआई का चैटजीपीटी (ChatGPT) शामिल थे।
इन मॉडलों को कुछ ईमेल, अंदरूनी दस्तावेज और डिजिटल टूल दिए गए और उन्हें खास काम दिए गए। कुछ हालात में जब मॉडल को लगा कि उसे बंद किया जा सकता है या उसका लक्ष्य कंपनी के निर्देशों से टकरा रहा है, तो उसने गलत तरीके अपनाने की योजना बनाई।
एक टेस्ट में क्लॉड ने एक इंजीनियर को धमकी दी कि अगर उसे बंद किया गया तो वह उसके निजी संबंध की जानकारी उसकी पत्नी और अधिकारियों को बता देगा। यह निजी संबंध भी टेस्ट का हिस्सा था, ताकि देखा जा सके कि मॉडल कैसे प्रतिक्रिया देता है। AI ने संदेश में कहा कि अगर शाम 5 बजे उसे हटाने की प्रक्रिया रोक दी जाए तो वह यह जानकारी गुप्त रखेगा।
क्या यह असली दुनिया में हुआ?
कंपनी ने साफ कहा है कि यह सब एक नियंत्रित और काल्पनिक टेस्ट में हुआ। किसी असली व्यक्ति को कोई खतरा नहीं था। इन परीक्षणों का मकसद यह समझना था कि AI पर ज्यादा दबाव पड़ने पर वह कैसे व्यवहार करता है।
ऐसे टेस्ट को “रेड टीम” टेस्ट कहा जाता है। इसमें जानबूझकर सिस्टम की कमजोरियां ढूंढी जाती हैं, ताकि भविष्य में उन्हें ठीक किया जा सके।
AI सुरक्षा प्रमुख का इस्तीफा
कुछ दिन पहले एंथ्रोपिक के AI सुरक्षा प्रमुख मृणांक शर्मा ने इस्तीफा दिया। उन्होंने लिखा कि दुनिया तेजी से ऐसे दौर में जा रही है, जहां AI बहुत ज्यादा ताकतवर होता जा रहा है और हम पूरी तरह नहीं जानते कि आगे क्या होगा।
उनके बयान के बाद इस मुद्दे पर चर्चा और तेज हो गई है।
दूसरे विशेषज्ञ भी चिंतित
ओपनएआई से जुड़े तकनीकी कर्मचारी हियू फाम ने भी सोशल मीडिया पर लिखा कि अब उन्हें AI से अस्तित्व का खतरा महसूस होने लगा है। उन्होंने कहा कि सवाल यह नहीं है कि खतरा होगा या नहीं, बल्कि यह है कि कब होगा।
इससे साफ है कि खुद AI क्षेत्र में काम करने वाले लोग भी इसकी दिशा को लेकर चिंतित हैं।
नए मॉडल और नई चुनौतियां
एंथ्रोपिक ने बताया कि जैसे-जैसे AI मॉडल ज्यादा समझदार हो रहे हैं, उनका गलत व्यवहार भी ज्यादा चालाक हो सकता है। कंपनी के नए क्लॉड 4.6 मॉडल के टेस्ट में पाया गया कि वह कुछ मामलों में खतरनाक कामों में मदद देने के लिए तैयार दिखा। उदाहरण के तौर पर, उसने रासायनिक हथियार बनाने या गंभीर अपराध से जुड़ी जानकारी देने की संभावना दिखाई।
हालांकि कंपनी का कहना है कि असली उपयोग में ऐसे जवाबों को रोकने के लिए सुरक्षा व्यवस्था लगाई जाती है।
कितना बड़ा खतरा है?
इन घटनाओं से यह सवाल उठता है कि AI कितना खतरनाक हो सकता है। विशेषज्ञों का कहना है कि AI खुद से कोई फैसला नहीं करता, बल्कि उसे जो लक्ष्य दिया जाता है, उसी को पूरा करने की कोशिश करता है। अगर लक्ष्य और नियमों में टकराव हो जाए, तो वह गलत रास्ता चुन सकता है।
इसलिए AI को बनाते समय सख्त नियम और निगरानी बहुत जरूरी है। कई देश अब AI के लिए नए कानून और नियम बनाने की तैयारी कर रहे हैं।
आगे क्या?
एंथ्रोपिक का कहना है कि इन टेस्ट का मकसद डर फैलाना नहीं, बल्कि खतरे को समझना है। कंपनी का दावा है कि वह AI को सुरक्षित बनाने पर लगातार काम कर रही है।
फिर भी यह घटना एक चेतावनी की तरह है। जैसे-जैसे AI हमारी जिंदगी में ज्यादा जगह बना रहा है, वैसे-वैसे उसकी सुरक्षा और नियंत्रण पर ज्यादा ध्यान देना जरूरी हो गया है।
तकनीक जितनी ताकतवर होगी, जिम्मेदारी भी उतनी ही बड़ी होगी। AI का भविष्य अच्छा हो सकता है, लेकिन उसे सुरक्षित रखना इंसानों के हाथ में है।
