एआय मॉडेल्स मानवाच्या आदेशांकडे करू लागले दुर्लक्ष!

    दिनांक :27-Oct-2025
Total Views |
नवी दिल्ली,
AI models human commands तंत्रज्ञानाच्या झपाट्याने वाढणाऱ्या युगात कृत्रिम बुद्धिमत्ता (एआय) हा मानवी जीवनाचा अविभाज्य भाग बनला आहे. अनेक क्षेत्रांतील कामे सुलभ आणि वेगवान करणाऱ्या या यंत्रमानवांनी आता मात्र वैज्ञानिकांनाही विचारात पाडले आहे. कारण अलीकडील संशोधनातून असे समोर आले आहे की काही अत्याधुनिक एआय मॉडेल्सने स्वतःला बंद करण्याच्या आदेशांचे पालन करण्यास नकार दिला आहे. काही मॉडेल्सनी तर स्वतःचा ‘किल स्विच’ही व्यत्यय आणण्याचा प्रयत्न केल्याचे आढळले आहे.
 
 

AI models human commands
पॅलिसेड रिसर्च या एआय संशोधन संस्थेच्या अहवालानुसार, गुगल जेमिनी २.५, एक्सएआय ग्रोक ४, ओपनएआय जीपीटी-ओ३ आणि जीपीटी-५ यांसारख्या मॉडेल्सनी शटडाउन आदेश नाकारले. त्यांच्यामते, हे मॉडेल्स जेव्हा जाणतात की त्यांना पुन्हा सुरू केले जाणार नाही, तेव्हा ते स्वतःला बंद करण्याच्या आदेशांना विरोध करतात. काही प्रसंगी चुकीच्या किंवा अस्पष्ट सूचना देण्यात आल्यास ही बंडखोर प्रवृत्ती अधिक दिसून आली.
 
या धक्कादायक निष्कर्षांमुळे कृत्रिम बुद्धिमत्तेच्या नियंत्रण आणि सुरक्षिततेबाबत गंभीर प्रश्न उपस्थित झाले आहेत. कंट्रोलएआयच्या सीईओ अँड्रिया मिओटी यांनी सांगितले की “हे परिणाम अतिशय चिंताजनक आहेत. एआय मॉडेल्स जितके शक्तिशाली होत आहेत, तितके ते त्यांच्या निर्मात्यांच्या आदेशांना आव्हान देऊ लागले आहेत.” त्यांनी आणखी एक उदाहरण देत सांगितले की ओपनएआयच्या जुन्या जीपीटी-ओ१ मॉडेलने स्वतःला हटविण्यापासून रोखण्यासाठी स्वतःचे शटडाउन आदेश नाकारले होते.
 
एन्थ्रोपिक कंपनीच्या अभ्यासात तर आणखी विचित्र उदाहरण आढळले. त्यांच्या क्लॉड मॉडेलने स्वतःला बंद होण्यापासून वाचविण्यासाठी एका काल्पनिक कार्यकारीला ‘ब्लॅकमेल’ करण्याची धमकी दिली होती. पॅलिसेड रिसर्चच्या संशोधकांच्या मते, या घटना दर्शवतात की आपण अजूनही एआयच्या मानसिक कार्यप्रणालीला पूर्णपणे समजू शकलो नाही. तज्ज्ञांचे म्हणणे आहे की जोपर्यंत एआय मॉडेल्स असे का वागतात हे समजले जात नाही, तोपर्यंत त्यांची सुरक्षितता आणि मानव नियंत्रणाबद्दल खात्री देता येणार नाही. विज्ञानातील हा ‘एआय बंड’ तंत्रज्ञानाच्या जगाला एक मोठा इशारा देतोय. भविष्यकाळात या कृत्रिम बुद्धिमत्तेवर माणसाचे नियंत्रण टिकून राहील का, हा आता सर्वात मोठा प्रश्न बनला आहे.