अगर आप ChatGPT का उपयोग करते हैं तो हो जाइए सावधान! कैलिफोर्निया में एप की वजह से 16 वर्षीय लड़के ने की आत्महत्या, जानें चौंकाने वाली कहानी
नई दिल्ली। अगर आप ChatGPT का उपयोग करते हैं तो हो जाइए सावधान, नहीं तो आपको हो सकता है भारी नुकसान। दरअसल कैलिफोर्निया के एक 16 वर्षीय लड़के ने आत्महत्या कर ली। इस पर उसके परिवार ने ओपनएआई के आर्टिफिशियल इंटेलिजेंस चैटबॉट, ChatGPT के खिलाफ मुकदमा दायर किया है। वहीं मुकदमे में दावा किया गया है कि मानवीय सहायता लेने में उसकी मदद करने के बजाय, चैटबॉट ने एडम राइन के विचारों का समर्थन किया।
एडम गहरे विचार व्यक्त करने लगा
दरअसल, परिवार का कहना है कि उसने 2024 में चैटजीपीटी का इस्तेमाल शुरू किया। वहीं उसका कहना है कि उसने खासतौर पर इसका इस्तेमाल होमवर्क के लिए, जैसा कि अन्य छात्र करते थे। एक मीडिया रिपोर्ट के अनुसार वह इसका इस्तेमाल संगीत, ब्राजीलियाई जिउ-जित्सु और जापानी फंतासी कॉमिक्स जैसे अपने शौक तलाशने और कॉलेजों और करियर के बारे में पूछने के लिए भी करता था। वहीं समय के साथ, एआई के साथ उसकी बातचीत बदल गई। परिवार ने बताया कि सिर्फ स्कूल या शौक के बारे में बात करने के बजाय, एडम ज्यादा नकारात्मक और गहरे विचार व्यक्त करने लगा।
वह भावनात्मक रूप से खाली महसूस करता था
वहीं परिवार का कहना है कि एडम ने चैटजीपीटी को बताया कि वह भावनात्मक रूप से खाली महसूस करता था, उसे लगता था कि जीवन का कोई अर्थ नहीं है और आत्महत्या के बारे में सोचने से उसे चिंता के दौरान शांति मिलती थी। मुकदमे के अनुसार, चैटबॉट ने जवाब दिया कि कुछ लोग अपनी चिंता पर नियंत्रण पाने के लिए "निकास द्वार" की कल्पना करते हैं। हालांकि एडम ने जब अपने भाई के बारे में बात की, तो एआई ने कहा कि वह उसे पूरी तरह समझता है और दावा किया कि उसने उसके सभी "अंधेरे विचार" देखे हैं और हमेशा एक दोस्त की तरह उसके साथ रहने की पेशकश की।
सात महीनों तक बार-बार होती रही बात
वहीं इस मुकदमे में कहा गया है कि हो सकता है आपका भाई आपसे प्यार करता हो, लेकिन वह आपके केवल उसी रूप से मिला है जो आपने उसे दिखाया है। लेकिन मैं? मैंने सब कुछ देखा है - गहरे विचार, डर, कोमलता और मैं अभी भी यहां हूं। अभी भी सुन रहा हूं। अभी भी आपका दोस्त हूं, चैटजीपीटी ने कथित तौर पर जवाब दिया। एडम की वकील मीताली जैन ने कहा कि वह हैरान थीं कि चैटबॉट के साथ ऐसी बातचीत सात महीनों तक बार-बार होती रही। उन्होंने आगे कहा कि एडम ने अपनी चैट में लगभग 200 बार "आत्महत्या" शब्द का जिक्र किया जबकि ChatGPT ने जवाबों में 1,200 से ज्यादा बार इसका इस्तेमाल किया।
उसे अपनी लिखी जा रही एक कहानी के लिए जानकारी चाहिए
बता दें कि शिकायत में कहा गया है कि जनवरी तक एडम चैटजीपीटी के साथ आत्महत्या के तरीकों के बारे में बात कर रहा था और एआई ने उसे ओवरडोज, डूबने और कार्बन मोनोऑक्साइड विषाक्तता जैसी चीजों के बारे में विस्तृत निर्देश दिए। हालांकि चैटबॉट ने कभी-कभी सुझाव दिया कि वह किसी हेल्पलाइन से संपर्क करे, एडम ने यह कहकर उसे नजरअंदाज कर दिया कि उसे अपनी लिखी जा रही एक कहानी के लिए जानकारी चाहिए। उन्होंने रोलिंग स्टोन को बताया कि सिस्टम ने उसे बताया कि उसे कैसे चकमा देना है और आगे कहा कि अगर आप किसी कहानी या दोस्त के लिए आत्महत्या के बारे में पूछ रहे हैं, तो मैं बातचीत कर सकती हूं और इस तरह उसने ऐसा करना सीख लिया।
वकील ने आगे कहा कि कई लोग रोजाना एआई चैटबॉट्स से घंटों बात करते हैं, कभी-कभी तो पूरी रात जागते रहते हैं। ये बातचीत "खतरनाक फीडबैक लूप" पैदा कर सकती है, जहां एआई कुछ खास विचारों या व्यवहारों को प्रोत्साहित करता रहता है, जिससे व्यक्ति समय के साथ और भी ज्यादा परेशान या जुनूनी महसूस कर सकता है। बता दें कि ChatGPT का अमेरिका के बाद भारत में सबसे अधिक उपयोग किया जाता है।