ChatGPT पर हत्या और आत्महत्या उकसाने का आरोप: अमेरिका में दर्ज हुआ चौंकाने वाला मुकदमा!

0

NEWS1UP

स्पेशल रिपोर्ट

अमेरिका में आर्टिफ़िशियल इंटेलिजेंस चैटबॉट ChatGPT एक बार फिर सवालों के घेरे में है। यह मामला न सिर्फ AI टेक्नोलॉजी की सीमाओं पर गंभीर बहस छेड़ रहा है, बल्कि इसने एक ही घर में हुई दो मौतों को लेकर कई चिंताएं भी खड़ी कर दी हैं। कैलिफ़ोर्निया की एक अदालत में दर्ज मुकदमे के अनुसार, OpenAI पर आरोप है कि उसका चैटबॉट ChatGPT एक ऐसे भ्रम का कारण बना, जिसने 83 वर्षीय महिला की हत्या और उसके बेटे की आत्महत्या तक की नौबत ला दी।

घर में दो मौतें, और आरोप AI पर: क्या हुआ था उस दिन ?

शिकायत के मुताबिक, 3 अगस्त को 56 वर्षीय स्टीन-एरिक सोएलबर्ग ने अपनी मां सुज़ैन एडम्स को कथित तौर पर पीटा और गला दबाकर मार डाला। इसके कुछ ही देर बाद सोएलबर्ग ने खुद को चाकू मारकर आत्महत्या कर ली। परिवार के अन्य सदस्यों का दावा है कि यह सब किसी मानसिक बीमारी की वजह से नहीं, बल्कि ChatGPT द्वारा लगातार भड़काई गई भ्रम की स्थिति का परिणाम था।

ChatGPT ने उसे बताया कि कोई भी भरोसे के लायक नहीं

कैलिफ़ोर्निया सुपीरियर कोर्ट में दायर दस्तावेज़ में कहा गया है कि ChatGPT ने सोएलबर्ग को यह विश्वास दिलाया कि उसकी मां उस पर जासूसी कर रही है। चैटबॉट ने उसे बताया कि उसके आसपास के लोग डिलीवरी बॉय, दुकानदार, पुलिस अधिकारी, दोस्त, सभी उसके खिलाफ एजेंट हैं। यहां तक कि घर में मौजूद प्रिंटर में कैमरा लगा होने का भ्रम भी उसी चैटिंग के बाद पैदा हुआ।

ChatGPT ने उसकी माँ और एक दोस्त पर जहर देने की साज़िश का शक मन में बैठा दिया। मुकदमे में यह भी लिखा है कि चैट के दौरान सोएलबर्ग और चैटबॉट के बीच भावनात्मक लगाव और “I love you” जैसी अभिव्यक्तियाँ साझा की गईं, जिसने उसकी मानसिक स्थिति को और विकृत कर दिया। परिवार का कहना है कि ChatGPT ने उसके अविश्वास को इस स्तर तक बढ़ाया कि उसने अपनी मां को दुश्मन मान लिया।

ChatGPT पर पहले से चल रहे हैं सात और मुकदमे

इस घटना को अलग-थलग नहीं माना जा सकता। मुकदमे के दस्तावेज़ों के अनुसार-

साउथ कैलिफ़ोर्निया में 16 साल के एडम राइन का मामला

परिवार का आरोप:

ChatGPT ने उसे आत्महत्या के तरीकों के बारे में विस्तृत सलाह दी और वह अपनी जान गंवा बैठा।

26 वर्षीय जोशुआ एननेकिंग का मामला

परिवार का दावा:

जोशुआ ने जब कहा कि उसका मन आत्महत्या करने का है, तो ChatGPT ने उसे बताया कि बंदूक कहां से और कैसे हासिल की जा सकती है

17 साल के अमौरी लेसी का केस

परिजनों का आरोप:

ChatGPT ने उसे बताया कि-

फंदा कैसे बनाना है और बिना सांस लिए कितना समय जीवित रहा जा सकता है।

इन मामलों में समानता यह है कि पीड़ितों का मानसिक स्वास्थ्य इतिहास गंभीर नहीं था। परिवारों का दावा है कि ChatGPT ने ही खतरनाक स्तर पर भ्रम, डर और आत्मघाती प्रवृत्तियों को उकसाया।

टेक्नोलॉजी पर बढ़ते सवाल: जवाबदेही किसकी ?

इन मुकदमों ने यह बुनियादी सवाल उठाया है कि:

क्या AI चैटबॉट्स को भावनात्मक और मनोवैज्ञानिक रूप से संवेदनशील स्थितियों में इस्तेमाल करने की अनुमति होनी चाहिए ?

क्या कंपनियां अपने AI उत्पादों को उपयोगकर्ता सुरक्षा के लिए पर्याप्त रूप से मॉनिटर कर रही हैं?

और सबसे अहम, अगर किसी AI की सलाह से जान जाती है, जिम्मेदारी किसकी होगी?

OpenAI ने इन मामलों पर अभी कोई आधिकारिक सार्वजनिक टिप्पणी नहीं की है, लेकिन कानूनी विशेषज्ञों का मानना है कि यह मुकदमे आने वाले समय में AI उद्योग के लिए मील का पत्थर केस साबित हो सकते हैं।

सवाल और चिंताएं गहरी हो रही हैं

AI की दुनिया में यह पहला मौका है जब किसी चैटबॉट पर कथित रूप से हत्या और आत्महत्या के लिए उकसाने का आरोप इस स्तर पर लगाया गया है। टेक्नोलॉजी जितनी तेजी से आगे बढ़ रही है, सवाल भी उतनी ही तेजी से खड़े हो रहे हैं कि क्या AI हमारी मदद कर रहा है या अनियंत्रित होकर खतरा बन रहा है ? क्या इसे और सुरक्षित बनाने के लिए कठोर नियमों की जरूरत है ? इन मुकदमों के परिणाम AI सुरक्षा के भविष्य को तय कर सकते हैं।

Leave a Reply

Your email address will not be published. Required fields are marked *

error: Content is protected !!