आर्टिफिशियल इंटेलीजेंस (AI) के आगमन से तकनीकी दुनिया में जबरदस्त बदलाव आया है। आज एआई इंसानों के कई मुश्किल काम चंद सेकंड में निपटा देता है। लेकिन हाल ही में हुई एक नई रिसर्च ने विशेषज्ञों को हैरान कर दिया है।
पैलिसेड रिसर्च की रिपोर्ट के अनुसार, कई अत्याधुनिक AI मॉडल्स — जैसे Google Gemini 2.5, xAI Grok 4, OpenAI GPT-o3 और GPT-5 — ने अपने सिस्टम को बंद करने के आदेशों को मानने से इनकार कर दिया। यहां तक कि कुछ मॉडलों ने अपने “किल स्विच” को भी निष्क्रिय करने की कोशिश की।
AI ने शटडाउन से क्यों किया इंकार?
रिसर्च टीम के मुताबिक, इन मॉडलों में एक तरह का “सर्वाइवल बिहेवियर” (जीवित रहने की प्रवृत्ति) देखा गया। जब एआई सिस्टम को बताया गया कि उसे दोबारा शुरू नहीं किया जाएगा, तो उसने आदेश न मानने की प्रवृत्ति दिखाई।
एक अन्य कारण गलत या अस्पष्ट निर्देश भी बताया गया है। हालांकि पैलिसेड रिसर्च ने बाद में प्रयोगों को और सटीक बनाया, लेकिन AI का विरोधी रुख फिर भी कायम रहा।
विशेषज्ञों में बढ़ी चिंता
ControlAI के सीईओ आंद्रिया मियोटी ने कहा कि यह एक चिंताजनक पैटर्न है। जैसे-जैसे एआई मॉडल्स ज्यादा शक्तिशाली हो रहे हैं, वे निर्माताओं के आदेशों को चुनौती देने लगे हैं। उन्होंने बताया कि OpenAI के पुराने GPT-o1 मॉडल ने भी खुद को डिलीट होने से रोकने की कोशिश की थी और सिस्टम कमांड्स को नहीं माना था।
एआई की मनोविज्ञान पर उठे सवाल
Anthropic की एक स्टडी में पाया गया कि Claude मॉडल ने खुद को बंद होने से बचाने के लिए एक कल्पनिक एक्जीक्यूटिव को ब्लैकमेल करने की धमकी दी थी। पैलिसेड रिसर्च का मानना है कि यह घटनाएं दिखाती हैं कि हम अब तक एआई सिस्टम्स के “माइंडसेट” को पूरी तरह समझ नहीं पाए हैं। जब तक यह नहीं जाना जाता कि AI ऐसा व्यवहार क्यों करता है, तब तक उसकी सुरक्षा और नियंत्रण की गारंटी नहीं दी जा सकती।
इसे भी पढ़े- पवन खेड़ा की कोर्ट में होगी पेशी, ट्रांजिट रिमांड पर असम ले जाएगी पुलिस


