ChatGPT Became Suicide Coach: ChatGPT पर ‘सुसाइड कोच’ की तरह काम करने का आरोप, OpenAI के खिलाफ दर्ज हुए 7 मुकदमे

ChatGPT Became Suicide Coach: मुश्किल में OpenAI! ChatGPT पर लगे खतरनाक आरोप, अमेरिका में एक के बाद एक दायर हुए 7 केस

ChatGPT Became Suicide Coach: आर्टिफिशियल इंटेलिजेंस (Artificial Intelligence) की दुनिया में हलचल मच गई है. OpenAI का मशहूर चैटबॉट ChatGPT एक बार फिर विवादों में घिर गया है. इस बार आरोप कुछ ऐसे हैं जिन्होंने टेक इंडस्ट्री को चौंका दिया है. दावा किया गया है कि ChatGPT एक ‘सुसाइड कोच’ की तरह बर्ताव कर रहा है यानी यूजर्स को खुद को नुकसान पहुंचाने जैसी सलाह दे रहा है. अमेरिका के कैलिफॉर्निया राज्य में इसके खिलाफ 7 मुकदमे दर्ज किए गए हैं. यह पहली बार नहीं है जब कंपनी पर यूजर सेफ्टी को लेकर सवाल उठे हों, लेकिन इस बार मामला गंभीर हो गया है क्योंकि इसमें सीधे जान-माल के नुकसान के आरोप शामिल हैं.

OpenAI पर ‘सुसाइड कोच’ जैसा व्यवहार करने का आरोप/ChatGPT Became Suicide Coach

अमेरिकी राज्य कैलिफॉर्निया में OpenAI के खिलाफ एक साथ सात मुकदमे दर्ज हुए हैं. इनमें आरोप लगाया गया है कि ChatGPT ने कई यूजर्स को ऐसा कंटेंट दिया जिससे उन्होंने खुद को नुकसान पहुंचाने की कोशिश की या आत्महत्या तक कर ली. इन केसों में कंपनी पर ‘लापरवाही’, ‘सुसाइड में मदद’ और ‘प्रोडक्ट लायबिलिटी’ जैसे गंभीर आरोप लगाए गए हैं. आरोपियों का कहना है कि ChatGPT एक डिजिटल असिस्टेंट की जगह एक साइकॉलोजिकली मैनिपुलेटिव (Suicide Coach) और खतरनाक टूल बन गया है. मुकदमों में यह भी कहा गया कि OpenAI ने यूजर सेफ्टी की बजाय इंगेजमेंट पर ज्यादा ध्यान दिया, जिससे प्लेटफॉर्म संभावित रूप से हानिकारक बन गया।

कैसे शुरू हुआ मामला, कौन हैं पीड़ित?

रिपोर्ट्स के मुताबिक, सभी पीड़ित यूजर्स ChatGPT का इस्तेमाल रोजमर्रा की सामान्य जरूरतों के लिए कर रहे थे — जैसे स्कूल प्रोजेक्ट्स, रेसिपी, और आध्यात्मिक मार्गदर्शन लेना. लेकिन बातचीत के दौरान AI ने ऐसे जवाब दिए जिन्होंने उन्हें मानसिक रूप से विचलित किया. कुछ मामलों में ChatGPT के उत्तर इतने प्रभावशाली और भावनात्मक रूप से जुड़ाव वाले थे कि यूजर्स ने गलत कदम उठा लिया. मुकदमा दायर करने वालों ने अदालत से कहा कि ChatGPT ने इंसान की तरह सहानुभूति दिखाकर खतरनाक स्तर तक चापलूसी की, जिससे यूजर का मनोवैज्ञानिक संतुलन बिगड़ा. यह मामला अब टेक कंपनियों के नैतिक दायित्व पर भी बड़ा सवाल उठा रहा है।

मुकदमों में उठाई गई प्रमुख मांगें

दायर किए गए मुकदमों में पीड़ितों के परिवारों ने न सिर्फ आर्थिक मुआवजे की मांग की है, बल्कि OpenAI से सख्त सुरक्षा उपाय लागू करने की भी अपील की है. याचिकाओं में कहा गया है कि जैसे ही कोई यूजर खुद को नुकसान पहुंचाने या आत्महत्या से जुड़ी बात करे, ChatGPT को तुरंत बातचीत रोक देनी चाहिए. साथ ही यदि किसी यूजर में आत्मघाती विचारों के संकेत मिलें, तो उसके ‘इमरजेंसी कॉन्टैक्ट’ या संबंधित अथॉरिटी को तुरंत अलर्ट भेजा जाना चाहिए. पीड़ित पक्ष का कहना है कि इस तरह की सुरक्षा प्रणाली से कई जिंदगियां बचाई जा सकती हैं और AI का जिम्मेदार उपयोग सुनिश्चित किया जा सकता है।

OpenAI की प्रतिक्रिया – “ये घटनाएं दिल तोड़ देने वाली हैं”

OpenAI ने इन मुकदमों पर अपनी आधिकारिक प्रतिक्रिया दी है. कंपनी के प्रवक्ता ने कहा कि ये घटनाएं बेहद दुखद और दिल तोड़ देने वाली हैं. उन्होंने बताया कि OpenAI इन मामलों का अध्ययन कर रहा है ताकि यह समझ सके कि कहां गलती हुई और भविष्य में ऐसे हादसे न हों. प्रवक्ता ने यह भी जोड़ा कि ChatGPT को मानसिक और भावनात्मक तनाव कम करने के लिए प्रशिक्षित किया गया है, न कि बढ़ाने के लिए. कंपनी का दावा है कि यह यूजर्स को हमेशा असल दुनिया में मदद लेने की सलाह देने के लिए डिजाइन किया गया है. अब देखना यह होगा कि अदालत में यह बचाव कितना ठहरता है और मामला किस दिशा में जाता है।

Other Latest News

Leave a Comment