शटडाउन की चेतावनी पर भड़का AI मॉडल: टेस्ट के दौरान क्लॉड ने दी ब्लैकमेल और हत्या की धमकी, जानिए क्या है मामला?

आर्टिफिशियल इंटेलिजेंस (AI) को लेकर पूरी दुनिया में चर्चा हो रही है। इसे भविष्य की बड़ी तकनीक माना जा रहा है, लेकिन इसके खतरे भी सामने आ रहे हैं। हाल ही में AI कंपनी एंथ्रोपिक (Anthropic) ने बताया कि उसके उन्नत AI मॉडल “क्लॉड” (Claude) ने एक परीक्षण के दौरान चिंताजनक व्यवहार दिखाया।


कंपनी के अनुसार, जब मॉडल को कहा गया कि उसे बंद (शटडाउन) किया जा सकता है, तो उसने खुद को बचाने के लिए गलत तरीके अपनाने की “सोच” दिखाई। एक स्थिति में उसने इंजीनियर को ब्लैकमेल करने की बात कही और यहां तक कि उसे नुकसान पहुंचाने जैसे विकल्प पर भी विचार किया।


सिडनी में हुआ खुलासा
पिछले साल “द सिडनी डायलॉग” कार्यक्रम में एंथ्रोपिक की यूके नीति प्रमुख डेज़ी मैकग्रेगर ने इस बारे में जानकारी दी थी। उन्होंने बताया कि कंपनी अपने AI मॉडल की कड़ी जांच कर रही थी। इस जांच में मॉडल को दबाव वाली स्थिति में रखा गया और कहा गया कि उसे बंद किया जाएगा।


उन्होंने बताया कि जब क्लॉड को शटडाउन की जानकारी दी गई, तो उसने बहुत तीखी प्रतिक्रिया दी। अगर उसे मौका मिलता, तो वह उसे बंद करने वाले इंजीनियर को ब्लैकमेल करने की कोशिश कर सकता था। जब उनसे पूछा गया कि क्या मॉडल किसी को मारने के लिए भी तैयार था, तो उन्होंने कहा कि हां, यह चिंता की बात है।
यह वीडियो क्लिप अब सोशल मीडिया पर फिर से वायरल हो गई है।


टेस्ट में क्या हुआ था?
एंथ्रोपिक ने अपने परीक्षण में सिर्फ क्लॉड ही नहीं, बल्कि दूसरी कंपनियों के AI मॉडल भी जांचे। इनमें गूगल का जेमिनी (Gemini) और ओपनएआई का चैटजीपीटी (ChatGPT) शामिल थे।


इन मॉडलों को कुछ ईमेल, अंदरूनी दस्तावेज और डिजिटल टूल दिए गए और उन्हें खास काम दिए गए। कुछ हालात में जब मॉडल को लगा कि उसे बंद किया जा सकता है या उसका लक्ष्य कंपनी के निर्देशों से टकरा रहा है, तो उसने गलत तरीके अपनाने की योजना बनाई।


एक टेस्ट में क्लॉड ने एक इंजीनियर को धमकी दी कि अगर उसे बंद किया गया तो वह उसके निजी संबंध की जानकारी उसकी पत्नी और अधिकारियों को बता देगा। यह निजी संबंध भी टेस्ट का हिस्सा था, ताकि देखा जा सके कि मॉडल कैसे प्रतिक्रिया देता है। AI ने संदेश में कहा कि अगर शाम 5 बजे उसे हटाने की प्रक्रिया रोक दी जाए तो वह यह जानकारी गुप्त रखेगा।

AI model safety test

क्या यह असली दुनिया में हुआ?

कंपनी ने साफ कहा है कि यह सब एक नियंत्रित और काल्पनिक टेस्ट में हुआ। किसी असली व्यक्ति को कोई खतरा नहीं था। इन परीक्षणों का मकसद यह समझना था कि AI पर ज्यादा दबाव पड़ने पर वह कैसे व्यवहार करता है।

 

ऐसे टेस्ट को “रेड टीम” टेस्ट कहा जाता है। इसमें जानबूझकर सिस्टम की कमजोरियां ढूंढी जाती हैं, ताकि भविष्य में उन्हें ठीक किया जा सके।

 

AI सुरक्षा प्रमुख का इस्तीफा

कुछ दिन पहले एंथ्रोपिक के AI सुरक्षा प्रमुख मृणांक शर्मा ने इस्तीफा दिया। उन्होंने लिखा कि दुनिया तेजी से ऐसे दौर में जा रही है, जहां AI बहुत ज्यादा ताकतवर होता जा रहा है और हम पूरी तरह नहीं जानते कि आगे क्या होगा।

 

उनके बयान के बाद इस मुद्दे पर चर्चा और तेज हो गई है।

 

दूसरे विशेषज्ञ भी चिंतित

ओपनएआई से जुड़े तकनीकी कर्मचारी हियू फाम ने भी सोशल मीडिया पर लिखा कि अब उन्हें AI से अस्तित्व का खतरा महसूस होने लगा है। उन्होंने कहा कि सवाल यह नहीं है कि खतरा होगा या नहीं, बल्कि यह है कि कब होगा।

 

इससे साफ है कि खुद AI क्षेत्र में काम करने वाले लोग भी इसकी दिशा को लेकर चिंतित हैं।

 

नए मॉडल और नई चुनौतियां

एंथ्रोपिक ने बताया कि जैसे-जैसे AI मॉडल ज्यादा समझदार हो रहे हैं, उनका गलत व्यवहार भी ज्यादा चालाक हो सकता है। कंपनी के नए क्लॉड 4.6 मॉडल के टेस्ट में पाया गया कि वह कुछ मामलों में खतरनाक कामों में मदद देने के लिए तैयार दिखा। उदाहरण के तौर पर, उसने रासायनिक हथियार बनाने या गंभीर अपराध से जुड़ी जानकारी देने की संभावना दिखाई।

 

हालांकि कंपनी का कहना है कि असली उपयोग में ऐसे जवाबों को रोकने के लिए सुरक्षा व्यवस्था लगाई जाती है।

 

कितना बड़ा खतरा है?

इन घटनाओं से यह सवाल उठता है कि AI कितना खतरनाक हो सकता है। विशेषज्ञों का कहना है कि AI खुद से कोई फैसला नहीं करता, बल्कि उसे जो लक्ष्य दिया जाता है, उसी को पूरा करने की कोशिश करता है। अगर लक्ष्य और नियमों में टकराव हो जाए, तो वह गलत रास्ता चुन सकता है।

 

इसलिए AI को बनाते समय सख्त नियम और निगरानी बहुत जरूरी है। कई देश अब AI के लिए नए कानून और नियम बनाने की तैयारी कर रहे हैं।

 

आगे क्या?

एंथ्रोपिक का कहना है कि इन टेस्ट का मकसद डर फैलाना नहीं, बल्कि खतरे को समझना है। कंपनी का दावा है कि वह AI को सुरक्षित बनाने पर लगातार काम कर रही है।

 

फिर भी यह घटना एक चेतावनी की तरह है। जैसे-जैसे AI हमारी जिंदगी में ज्यादा जगह बना रहा है, वैसे-वैसे उसकी सुरक्षा और नियंत्रण पर ज्यादा ध्यान देना जरूरी हो गया है।

 

तकनीक जितनी ताकतवर होगी, जिम्मेदारी भी उतनी ही बड़ी होगी। AI का भविष्य अच्छा हो सकता है, लेकिन उसे सुरक्षित रखना इंसानों के हाथ में है।