AI Role In Crime: अमेरिका के फ्लोरिडा से एक बड़ी और चौंकाने वाली खबर सामने आई है। यहां की सरकार ने OpenAI और उसके AI टूल ChatGPT के खिलाफ आपराधिक जांच (क्रिमिनल इन्वेस्टिगेशन) शुरू कर दी है। इस जांच ने टेक्नोलॉजी और कानून दोनों क्षेत्रों में बहस तेज कर दी है। मामला फ्लोरिडा स्टेट यूनिवर्सिटी में अप्रैल 2025 में हुई एक गोलीबारी से जुड़ा है। इस हमले में दो लोगों की मौत हो गई थी और कई लोग घायल हुए थे। आरोपी की पहचान फीनिक्स इकनर के रूप में हुई है, जिस पर हत्या और हत्या की कोशिश जैसे गंभीर आरोप लगाए गए हैं।
जांच में सामने आया पूरा ममला
फ्लोरिडा के अटॉर्नी जनरल जेम्स उथमेयर का कहना है कि जांच में सामने आया है कि आरोपी हमले से पहले ChatGPT से लगातार बातचीत कर रहा था। आरोप है कि उसने हथियार, गोला-बारूद, हमले का समय और जगह जैसी जानकारी से जुड़े सवाल पूछे थे। रिपोर्ट्स के अनुसार, आरोपी ने यह भी पूछा था कि किस तरह के हथियार ज्यादा प्रभावी होते हैं और किस समय ज्यादा लोग मौजूद रहते हैं। इसी आधार पर जांच एजेंसियां यह पता लगाने की कोशिश कर रही हैं कि क्या AI टूल ने किसी तरह उसकी मदद की या नहीं।
AI सिस्टम पर उठ रहा सवाल
सरकार का कहना है कि अगर कोई इंसान ऐसी जानकारी देकर अपराध में मदद करता है तो उस पर सीधा केस बनता है। इसी वजह से यह सवाल उठ रहा है कि क्या अब AI सिस्टम को भी किसी हद तक जिम्मेदार माना जा सकता है। वहीं, OpenAI ने इस मामले में सफाई दी है। कंपनी का कहना है कि ChatGPT ने कोई गैरकानूनी या गलत सलाह नहीं दी, बल्कि केवल इंटरनेट पर मौजूद सामान्य जानकारी ही दी गई। कंपनी ने यह भी बताया कि उसने जांच में सहयोग करते हुए आरोपी से जुड़ी जानकारी पुलिस को सौंप दी है।
क्या कहते हैं विशेषज्ञ?
इस मामले ने आर्टिफिशियल इंटेलिजेंस के इस्तेमाल को लेकर नई बहस छेड़ दी है। विशेषज्ञों का कहना है कि यह केस तय कर सकता है कि भविष्य में AI कंपनियों की कानूनी जिम्मेदारी कितनी होगी। जांच एजेंसियों ने OpenAI को समन भेजकर उसकी सुरक्षा नीतियों और सिस्टम की जानकारी मांगी है। अब देखना होगा कि यह मामला अदालत में किस दिशा में जाता है और क्या AI को भी अपराध में जिम्मेदार माना जा सकता है या नहीं।
Also read: ईरान की IRGC ने दो जहाजों को किया सीज, जब्त कर ईरान ले गई फोर्स