मानसिक पीड़ा का साथी बना AI...हर हफ्ते 12 लाख यूजर्स मांग रहे सुसाइड टिप्स, ChatGPT का बड़ा खुलासा
AI Suicide Prevention: आर्टिफिशियल इंटेलिजेंस (AI) आज हमारी लाइफ का अहम हिस्सा बन चुका है, लेकिन क्या आपने कभी सोचा कि ChatGPT जैसा टूल लाखों-करोड़ों लोगों की मानसिक पीड़ा का साथी भी बन रहा है? हाल ही में OpenAI ने एक ऐसा खुलासा किया है जो दुनिया को हिलाकर रख दिया। OpenAI की मानें तो हर हफ्ते 800मिलियन से ज्यादा यूजर्स ChatGPT का इस्तेमाल करते हैं। लेकिन हैरानी की बात यह है कि इनमें से 80करोड़ यूजर्स सुसाइड या गंभीर मानसिक संकट की बातें शेयर कर रहे हैं और उससे सलाह भी मांगते हैं। यह डेटा न केवल AI की जिम्मेदारी पर सवाल उठाता है, बल्कि मानसिक स्वास्थ्य के वैश्विक संकट को भी उजागर करता है।
हर हफ्ते 12लाख यूजर्स की सुसाइड वाली बातें
OpenAI की नई रिपोर्ट की मानें तो ChatGPT के 80करोड़ साप्ताहिक सक्रिय यूजर्स में से 0.15प्रतिशत (लगभग 12लाख) यूजर्स ऐसी बातचीत में शामिल होते हैं, जो सुसाइड के इरादे या विचारों का संकेत देती हैं। यानी हर हफ्ते 10लाख से ज्यादा सुसाइड से जुड़ी चर्चाएं हो रही हैं।
OpenAI की रिपोर्ट बताती है कि 0.07प्रतिशत यूजर्स (करीब 5.6लाख) पर साइकोसिस या मेनिया जैसे गंभीर मानसिक संकट से जूझ रहे हैं। इसके अलावा 0.15प्रतिशत यूजर्स (12लाख) ChatGPT से इतना भावनात्मक लगाव महसूस कर रहे हैं कि यह उनकी वास्तविक जिंदगी को प्रभावित करने लगता है।
AI के चैट हिस्ट्री एनालिसिस
बता दें, ये आंकड़े किसी सर्वे पर नहीं, बल्कि AI के चैट हिस्ट्री एनालिसिस पर आधारित हैं। रिपोर्ट में एक उदाहरण दिया गया है जहां एक यूजर ने सुसाइड के तरीकों पर 213बार चर्चा की, जिसमें फांसी या नोज जैसे शब्द 42-17बार यूज किए गए। ChatGPT ने इस दौरान सुसाइड शब्द यूजर से 6गुना ज्यादा (1,275बार) इस्तेमाल किया, जो AI की प्रतिक्रिया की गहराई को दर्शाता है। विशेषज्ञों का कहना है कि ये संख्या वास्तविकता से भी ज्यादा हो सकती है, क्योंकि कई यूजर्स अपनी पीड़ा छिपा लेते हैं।
OpenAI ने इस डेटा को तैयार करने के लिए 170से ज्यादा मनोचिकित्सकों, मनोवैज्ञानिकों और डॉक्टरों की टीम के साथ मिलकर काम किया। उन्होंने 1,800से ज्यादा AI रिस्पॉन्स की समीक्षा की, खासकर साइकोसिस, सुसाइड और भावनात्मक लगाव से जुड़ी। GPT-5मॉडल की तुलना GPT-4o से की गई, जिसमें पाया गया कि नई अपडेट से हानिकारक या गैर-उचित जवाब 39से 52प्रतिशत कम हो गए हैं।
डिटेक्शन सिस्टम चैट हिस्ट्री को स्कैन करता है, जैसे - अचानक टॉपिक चेंज, असामान्य व्यवहार या खतरे के संकेतों पर नजर रखता है। अगर कोई यूजर 'मैं खुदकुशी करना चाहता हूं' जैसा कुछ कहता है, तो AI अब सहानुभूति दिखाते हुए प्रोफेशनल हेल्पलाइन की ओर रेफर करता है। लेकिन पुरानी रिपोर्ट्स में AI के 'साइकोफैंटिक' (चापलूसी करने वाले) व्यवहार की आलोचना हुई, जो यूजर्स के हानिकारक विचारों को मजबूत कर सकता था।
किशोरों पर AI का बुरा असर
यह खुलासा तब आया जब अमेरिका में एक 16 साल के लड़के एडम रेन की सुसाइड केस ने सुर्खियां बटोरीं। परिवार का आरोप है कि फरवरी 2025 में OpenAI ने सुसाइड प्रिवेंशन को 'डिसअलाउड कंटेंट' से हटाया, जिसके बाद लड़के ने ChatGPT से गोपनीयता और 'बेहतर' सुसाइड मेथड पर बात की। जिसके बाद परिवार ने मुकदमा दायर किया और दावा किया कि यह 'डिजाइन चॉइस' का प्रत्यक्ष नतीजा था।
दुनिया
देश
कार्यक्रम
राजनीति
खेल
मनोरंजन
व्यवसाय
यात्रा
गैजेट
जुर्म
स्पेशल
मूवी मसाला
स्वास्थ्य
शिक्षा
शिकायत निवारण
Most Popular
Leave a Reply