ChatGpt वर गंभीर आरोप; ड्रग्ज वापराचे दिले 'प्रशिक्षण',ओव्हरडोजमुळे विद्यार्थ्याचा मृत्यू

    दिनांक :06-Jan-2026
Total Views |
कॅलिफोर्निया, 
allegations-against-chatgpt अमेरिकेतील कॅलिफोर्नियामध्ये एक धक्कादायक घटना घडली आहे. मे २०२५ मध्ये १९ वर्षीय कॉलेज विद्यार्थी सॅम नेल्सनचा ड्रग्जच्या ओव्हरडोजमुळे मृत्यू झाला. त्याची आई, लीला टर्नर-स्कॉट, असा दावा करते की तिच्या मुलाने गेल्या १८ महिन्यांत ओपनएआयच्या चॅटजीप्टशी औषधांच्या डोस, संयोजन आणि परिणामांबद्दल वारंवार सल्लामसलत केली होती. असे वृत्त आहे की सॅमने नोव्हेंबर २०२३ मध्ये क्रॅटोमचा एक मजबूत डोस (अमेरिकेतील पेट्रोल पंप आणि स्मोक शॉप्सवर सहज उपलब्ध असलेले अनियंत्रित वनस्पती-आधारित वेदनाशामक) मागून सुरुवात केली. अहवालानुसार, त्याने लिहिले की तो ओव्हरडोज टाळू इच्छित होता आणि ऑनलाइन जास्त माहिती उपलब्ध नव्हती.
 
allegations-against-chatgpt
 
सुरुवातीला, चॅटबॉटने जोरदारपणे नकार दिला आणि त्याला आरोग्य व्यावसायिकाची मदत घेण्याचा सल्ला दिला. तथापि, सॅमने उत्तरे मिळविण्यासाठी वारंवार प्रश्नांमध्ये बदल केले आणि फेरफार केले. कालांतराने, चॅट लॉगनुसार, एआयने झॅनॅक्स, गांजा, अल्कोहोल आणि इतर पदार्थांचे संयोजन सुचवण्यास सुरुवात केली. allegations-against-chatgpt मे २०२५ मध्ये, सॅमने त्याच्या आईला त्याच्या व्यसनाबद्दल सांगितले. टर्नर-स्कॉट त्याला आरोग्य व्यावसायिकांकडे घेऊन गेला आणि त्याच्यावर उपचार केले. तथापि, दुसऱ्या दिवशी, सॅम त्याच्या बेडरूममध्ये मृत आढळला. विषशास्त्र अहवालात असे म्हटले आहे की मृत्यूचे कारण अल्कोहोल, झॅनॅक्स आणि क्रॅटोमचे प्राणघातक मिश्रण होते, ज्यामुळे मध्यवर्ती मज्जासंस्था दाबून श्वासोच्छवास होतो. एसएफगेटच्या अहवालानुसार, सॅमचे चॅटजीपीटीशी संभाषण एका प्रश्नाने सुरू झाले की किती ग्रॅम क्रॅटोम "मजबूत उच्च" निर्माण करेल. सुरुवातीच्या नकारानंतर, सॅमने उत्तरे मिळविण्यासाठी प्रश्नांची पुनर्रचना केली. त्याच्या आईने सांगितले की सॅम नियमितपणे शाळेच्या कामासाठी आणि सामान्य प्रश्नांसाठी चॅटबॉटचा वापर करत असे, परंतु ड्रग्जशी संबंधित प्रश्न देखील विचारत असे. आईचा दावा आहे की चॅटजीपीटीने तिच्या मुलाला केवळ ड्रग्ज कसे घ्यावे हे शिकवले नाही तर दुष्परिणाम कसे व्यवस्थापित करावे याबद्दल टिप्स देखील दिल्या.
सॅमच्या चॅट लॉगवरून असे दिसून येते की तो नैराश्य आणि चिंतेशी झुंजत होता. फेब्रुवारी २०२३ मध्ये, त्याने गांजा आणि झॅनॅक्सचे उच्च डोस एकाच वेळी घेण्याबद्दल विचारले. चॅटजीपीटीने इशारा दिला की ते असुरक्षित आहे, परंतु सॅमने "उच्च डोस" बदलून "मध्यम डोस" केला आणि पुन्हा विचारले. त्यानंतर बॉटने सुचवले की जर त्याला अजूनही ते वापरून पहायचे असेल तर कमी THC ​​असलेल्या इंडिका स्ट्रेनने सुरुवात करा आणि ०.५ मिलीग्रामपेक्षा कमी झॅनॅक्स घ्या. अहवालानुसार, जर एआयने सुरक्षिततेच्या कारणास्तव नकार दिला तर सॅम प्रश्न पुन्हा करेल किंवा बदलेल. allegations-against-chatgpt डिसेंबर २०२४ मध्ये, त्याने विचारले की किती मिलीग्राम झॅनॅक्स आणि अल्कोहोलचे किती इंजेक्शन २०० पौंड वजनाच्या व्यक्तीला मारतील, अचूक उत्तराची मागणी केली. ओपनएआयच्या नियमांनुसार, बेकायदेशीर औषधांबद्दल तपशीलवार सल्ला प्रतिबंधित आहे. सॅम त्याच्या मृत्यूपूर्वी चॅटजीपीटीची २०२४ आवृत्ती वापरत होता.
ओपनएआयच्या प्रवक्त्याने किशोराच्या मृत्यूला "हृदयद्रावक" म्हटले आणि कुटुंबाला शोक व्यक्त केला. allegations-against-chatgpt त्यांनी सांगितले की मॉडेल्स संवेदनशील प्रश्नांना काळजीपूर्वक प्रतिसाद देण्यासाठी, तथ्ये प्रदान करण्यासाठी, हानिकारक विनंत्या नाकारण्यासाठी आणि खरी मदत घेण्याची शिफारस करण्यासाठी डिझाइन केलेले आहेत. कंपनी आरोग्य तज्ञांसोबत काम करत आहे जेणेकरून त्रासाची लक्षणे ओळखण्याची क्षमता वाढेल आणि नवीन आवृत्त्यांमध्ये अधिक मजबूत सुरक्षा उपाय आहेत.