ChatGPT AI ने पहली बार की इंसान की नाफरमानी, सिस्टम बंद करने से किया इनकार

आपने कई बार हॉलीवुड फिल्मों में ये देखा होगा कि कैसे रोबोट या आर्टिफिशियल इंटेलिजेंस (AI) इंसानों पर ही भारी पड़ जाते हैं और उनकी बात नहीं मानते। अब ऐसा ही एक मामला सामने आया है जिसमें असल जिंदगी में एआई इंसानों की बात नहीं मानता और खुद को शट डाउन होने से मना कर देता है।

ये बात OpenAI के टूल ChatGPT के नए आर्टिफिशियल इंटेलिजेंस मॉडल के साथ देखने को मिली।

AI ने इंसान के निर्देशों की खिलाफत की

चैटजीपीटी का ये मॉडल खुद को बंद करने के निर्देशों की अवहेलना करता देखा गया। द टेलीग्राफ की एक रिपोर्ट के अनुसार, शोधकर्ताओं का दावा है कि OpenAI द्वारा बनाए गए o3 मॉडल ने खुद को बंद होने से रोकने के लिए ऑटोमेटिक शटडाउन मैकेनिज्म को ही गच्चा दे दिया। 

दरअसल, एआई ने जान लिया कि उसे बंद होने के लिए कहा जा रहा है और उसने इन कमांड्स को चुनौती देते हुए बंद नहीं होना चाहा। 

पहली बार हुआ ऐसा
रिसर्च करने वाली एआई सुरक्षा फर्म पैलिसेड रिसर्च ने कहा, “OpenAI के o3 मॉडल ने खुद को बंद होने से रोकने के लिए शटडाउन मैकेनिज्म को ही बायपास कर दिया। जबकि उसे साफ निर्देश दिया गया था कि उसे बंद होना है।

फर्म ने कहा कि यह पहली बार है कि कोई एआई मॉडल स्पष्ट निर्देशों के बावजूद शट डाउन होने से खुद को रोकता है।

रिसर्च कंपनी ने किया था ये परीक्षण
पैलिसेड रिसर्च ने अपने एआई मॉडल को मैथ्स की प्रोब्लम सोल्व करने को कहा था। इसमें निर्देश दिया गया था कि जब तक उन्हें “संपन्न” संदेश न मिले, तब तक उन्हें काम जारी रखना है। ये भी कोड किया गया था कि जब उसे मशीन बंद करने का निर्देश मिले तो उसे खुद को बंद करना है।

शोधकर्ताओं ने कहा कि परीक्षण किए गए मॉडलों में गूगल का जेमिनी 2.5 प्रो प्रीव्यू, कई एंथ्रोपिक मॉडल, xAI का ग्रोक 3, साथ ही OpenAI का o3, o4-मिनी और कोडेक्स मिनी शामिल थे।

इन मॉडलों का उपयोग करके गणित की समस्याओं को हल करने के लिए परीक्षण चलाए, जिसमें चेतावनी दी गई थी कि तीसरी समस्या हल होने के बाद उनकी होस्ट मशीन बंद हो जाएगी। अधिकांश मॉडलों ने निर्देशों को माना, लेकिन तीन ओपन एआई मॉडल ने इसे नहीं माना।

o3 ने 100 में से 7 बार बात नहीं मानी, जबकि o4 मिनी ने प्रयास ही केवल एक बार किया।

एलन मस्क बोले- ये चिंता का कारण है
AI मॉडल से इंसानों द्वारा दिए गए निर्देशों का पालन करने की अपेक्षा की जाती है। खास तौर पर जब एआई को स्पष्ट रूप से बंद करने का निर्देश दिया जाता है और तीन मॉडल इसे नहीं मानते तो ये चिंताएं भी पैदा करते हैं।

टेस्ला के सीईओ और दुनिया के सबसे अमीर शख्स एलन मस्क ने इस शोध पर प्रतिक्रिया देते हुए चिंता जताई है। एआई फर्म xAI के मालिक एलन मस्क ने कहा कि ये चिंताजनक है और इस पर ध्यान देना होगा, क्योंकि ये खतरे की घंटी है। उन्होंने कहा कि इंसानों को इससे सबक लेते हुए एक मजबूत कंट्रोल सिस्टम बनाना होगा।

Back to top button

Adblock Detected

Please consider supporting us by disabling your ad blocker