नवी दिल्ली,
AI models human commands तंत्रज्ञानाच्या झपाट्याने वाढणाऱ्या युगात कृत्रिम बुद्धिमत्ता (एआय) हा मानवी जीवनाचा अविभाज्य भाग बनला आहे. अनेक क्षेत्रांतील कामे सुलभ आणि वेगवान करणाऱ्या या यंत्रमानवांनी आता मात्र वैज्ञानिकांनाही विचारात पाडले आहे. कारण अलीकडील संशोधनातून असे समोर आले आहे की काही अत्याधुनिक एआय मॉडेल्सने स्वतःला बंद करण्याच्या आदेशांचे पालन करण्यास नकार दिला आहे. काही मॉडेल्सनी तर स्वतःचा ‘किल स्विच’ही व्यत्यय आणण्याचा प्रयत्न केल्याचे आढळले आहे.
पॅलिसेड रिसर्च या एआय संशोधन संस्थेच्या अहवालानुसार, गुगल जेमिनी २.५, एक्सएआय ग्रोक ४, ओपनएआय जीपीटी-ओ३ आणि जीपीटी-५ यांसारख्या मॉडेल्सनी शटडाउन आदेश नाकारले. त्यांच्यामते, हे मॉडेल्स जेव्हा जाणतात की त्यांना पुन्हा सुरू केले जाणार नाही, तेव्हा ते स्वतःला बंद करण्याच्या आदेशांना विरोध करतात. काही प्रसंगी चुकीच्या किंवा अस्पष्ट सूचना देण्यात आल्यास ही बंडखोर प्रवृत्ती अधिक दिसून आली.
या धक्कादायक निष्कर्षांमुळे कृत्रिम बुद्धिमत्तेच्या नियंत्रण आणि सुरक्षिततेबाबत गंभीर प्रश्न उपस्थित झाले आहेत. कंट्रोलएआयच्या सीईओ अँड्रिया मिओटी यांनी सांगितले की “हे परिणाम अतिशय चिंताजनक आहेत. एआय मॉडेल्स जितके शक्तिशाली होत आहेत, तितके ते त्यांच्या निर्मात्यांच्या आदेशांना आव्हान देऊ लागले आहेत.” त्यांनी आणखी एक उदाहरण देत सांगितले की ओपनएआयच्या जुन्या जीपीटी-ओ१ मॉडेलने स्वतःला हटविण्यापासून रोखण्यासाठी स्वतःचे शटडाउन आदेश नाकारले होते.
एन्थ्रोपिक कंपनीच्या अभ्यासात तर आणखी विचित्र उदाहरण आढळले. त्यांच्या क्लॉड मॉडेलने स्वतःला बंद होण्यापासून वाचविण्यासाठी एका काल्पनिक कार्यकारीला ‘ब्लॅकमेल’ करण्याची धमकी दिली होती. पॅलिसेड रिसर्चच्या संशोधकांच्या मते, या घटना दर्शवतात की आपण अजूनही एआयच्या मानसिक कार्यप्रणालीला पूर्णपणे समजू शकलो नाही. तज्ज्ञांचे म्हणणे आहे की जोपर्यंत एआय मॉडेल्स असे का वागतात हे समजले जात नाही, तोपर्यंत त्यांची सुरक्षितता आणि मानव नियंत्रणाबद्दल खात्री देता येणार नाही. विज्ञानातील हा ‘एआय बंड’ तंत्रज्ञानाच्या जगाला एक मोठा इशारा देतोय. भविष्यकाळात या कृत्रिम बुद्धिमत्तेवर माणसाचे नियंत्रण टिकून राहील का, हा आता सर्वात मोठा प्रश्न बनला आहे.