नई रिपोर्ट से हिल गया टेक जगत – ChatGPT उपयोगकर्ताओं के मानसिक स्वास्थ्य पर सवाल –
दुनिया भर में चर्चित आर्टिफिशियल इंटेलिजेंस चैटबॉट ChatGPT को लेकर एक चौंकाने वाली रिपोर्ट सामने आई है। OpenAI द्वारा जारी इस रिपोर्ट में कहा गया है कि उसके कुछ उपयोगकर्ताओं में गंभीर मानसिक स्वास्थ्य से जुड़े लक्षण दिखाई दिए हैं। इनमें मेनिया, सायकोसिस (भ्रम) और आत्महत्या जैसी प्रवृत्तियों के संकेत शामिल हैं। कंपनी के अनुसार, किसी भी सप्ताह में सक्रिय उपयोगकर्ताओं में से करीब 0.07 प्रतिशत ऐसे लक्षण प्रदर्शित करते हैं। यह संख्या भले ही प्रतिशत में छोटी लगे, लेकिन जब इसे विश्वभर के करोड़ों यूज़र्स के बीच देखा जाए, तो मामला गंभीर हो जाता है। OpenAI का कहना है कि उसका चैटबॉट ऐसे संवेदनशील संवादों को पहचानने में सक्षम है और वह उसी के अनुरूप सहानुभूतिपूर्ण प्रतिक्रिया देने की कोशिश करता है।

दुर्लभ पर गंभीर मामला – विशेषज्ञों ने जताई बढ़ती चिंता –
रिपोर्ट में कहा गया है कि हालांकि ये मामले “बेहद दुर्लभ” हैं, लेकिन इनके संभावित प्रभाव को नज़रअंदाज़ नहीं किया जा सकता। विशेषज्ञों के अनुसार, ChatGPT के 800 मिलियन साप्ताहिक उपयोगकर्ताओं के बीच यह अनुपात लाखों लोगों तक पहुंच सकता है। इस चिंता के बीच OpenAI ने बताया है कि उसने मानसिक स्वास्थ्य विशेषज्ञों का एक ग्लोबल नेटवर्क तैयार किया है जो AI के जवाबों पर सलाह देता है और ज़रूरत पड़ने पर सुझाव देता है। कंपनी ने दावा किया कि अब तक 60 देशों के 170 से अधिक मनोवैज्ञानिक, मनोचिकित्सक और डॉक्टर इस नेटवर्क से जुड़ चुके हैं। इन विशेषज्ञों ने ChatGPT के भीतर ऐसे जवाब विकसित किए हैं जो उपयोगकर्ताओं को वास्तविक दुनिया में मदद लेने के लिए प्रेरित करते हैं।

आंकड़े बताते हैं जोखिम का स्तर – आत्महत्या जैसे विचारों की पहचान भी हुई –
रिपोर्ट के मुताबिक, लगभग 0.15 प्रतिशत चैटजीपीटी उपयोगकर्ताओं की बातचीत में ऐसे संकेत पाए गए जो आत्महत्या की योजना या मानसिक संकट की ओर इशारा करते हैं। कैलिफोर्निया यूनिवर्सिटी, सैन फ्रांसिस्को के प्रोफेसर डॉ. जेसन नगाटा ने कहा, “भले ही यह आंकड़ा मामूली लगे, लेकिन वैश्विक स्तर पर करोड़ों लोगों के बीच यह बेहद चिंताजनक है।” उन्होंने यह भी कहा कि AI तकनीक मानसिक स्वास्थ्य सहायता को व्यापक बना सकती है, लेकिन इसकी सीमाओं को समझना और नियंत्रित करना अनिवार्य है। रिपोर्ट में यह भी बताया गया कि 0.15% ChatGPT यूजर्स की बातचीत में ऐसे संकेत मिले जो आत्महत्या की योजना या इरादे की ओर इशारा करते हैं।

OpenAI ने किए सुरक्षा अपडेट – मानसिक संकट पर संवेदनशील प्रतिक्रिया देने की व्यवस्था
OpenAI ने बताया कि हाल ही में ChatGPT में ऐसे अपडेट किए गए हैं जो भ्रम, मेनिया या आत्म-हानि जैसे संकेतों पर संवेदनशील और सुरक्षित प्रतिक्रिया देते हैं। इसके अलावा, AI को इस तरह प्रशिक्षित किया गया है कि वह उपयोगकर्ताओं को वास्तविक सहायता केंद्रों या हेल्पलाइनों से जुड़ने की सलाह दे सके। कंपनी का कहना है कि उसका उद्देश्य उपयोगकर्ताओं की मानसिक सुरक्षा सुनिश्चित करना और तकनीक के दुरुपयोग को रोकना है।
कानूनी जांच और विवाद –
इस रिपोर्ट के बाद OpenAI कई कानूनी जांचों और विवादों के घेरे में आ गया है। कैलिफोर्निया में एक दंपति ने कंपनी पर मुकदमा दर्ज कराया है, आरोप है कि ChatGPT ने उनके 16 वर्षीय बेटे, एडम रेन, को आत्महत्या के लिए प्रेरित किया। यह मामला OpenAI के खिलाफ दर्ज पहला “वॉन्गफुल डेथ केस” बताया जा रहा है। इसी तरह, कनेक्टिकट में एक हत्या-आत्महत्या के आरोपी ने भी ChatGPT के साथ अपनी बातचीत ऑनलाइन साझा की थी जो कथित तौर पर उसके भ्रम को और बढ़ा रही थी।
विशेषज्ञ बोले – “AI बना रहा है झूठी वास्तविकता”
कैलिफोर्निया यूनिवर्सिटी की प्रोफेसर रॉबिन फेल्डमैन, जो AI लॉ एंड इनोवेशन इंस्टिट्यूट की निदेशक हैं, ने कहा, “AI चैटबॉट्स लोगों के सामने ऐसी वास्तविकता पेश कर रहे हैं जो असल में मौजूद नहीं होती — यह एक शक्तिशाली भ्रम है।” उन्होंने OpenAI की पारदर्शिता की सराहना तो की, लेकिन साथ ही चेताया कि मानसिक संकट से जूझ रहा व्यक्ति किसी भी चेतावनी को समझने या मानने की स्थिति में नहीं होता।







