- महिला की छवि खराब करने में AI का किया इस्तेमाल।
OpenAI ChatGPT: कैलिफोर्निया की एक अदालत में दायर नए मुकदमे ने आर्टिफिशियल इंटेलिजेंस के इस्तेमाल पर गहरी चिंता खड़ी कर दी है. एक महिला, जिसकी पहचान छुपाने के लिए उसे जेन डो कहा गया है, ने आरोप लगाया है कि ChatGPT ने उसके एक्स बॉयफ्रेंड के गलत व्यवहार को बढ़ावा दिया और उसकी चेतावनियों को नजरअंदाज किया.
AI चैट से बढ़ा भ्रम
Tech Crunch की रिपोर्ट के अनुसार, सिलिकॉन वैली का 53 वर्षीय एक उद्यमी कई महीनों तक ChatGPT से बातचीत करता रहा. इस दौरान उसे यह यकीन हो गया कि उसने स्लीप एपनिया की दवा खोज ली है और कुछ ताकतवर लोग उसके पीछे पड़े हैं. आरोप है कि इसी मानसिक स्थिति में उसने अपनी पूर्व गर्लफ्रेंड को परेशान करना शुरू कर दिया और ChatGPT से मिली जानकारी का इस्तेमाल कर उसे स्टॉक और हैरेस करने लगा.
OpenAI ने चेतावनियों को किया अनदेखा
पीड़िता का कहना है कि उसने OpenAI को तीन बार चेतावनी दी थी कि यह व्यक्ति दूसरों के लिए खतरा बन सकता है. यहां तक कि कंपनी के सिस्टम ने भी उसकी एक्टिविटी को मास-कैजुअल्टी वेपन्स से जुड़ा मानकर फ्लैग किया था. इसके बावजूद कंपनी ने उसका अकाउंट पूरी तरह से बंद नहीं किया. महिला अब अदालत से मांग कर रही है कि उस व्यक्ति का अकाउंट स्थायी रूप से ब्लॉक किया जाए नए अकाउंट बनाने से रोका जाए और उसकी चैट हिस्ट्री सुरक्षित रखी जाए.
AI ने महिला को बताया गलत
मुकदमे में कहा गया है कि जब दोनों का रिश्ता टूटा तो आरोपी ने ChatGPT से सलाह लेना शुरू किया. AI ने उसकी बातों का विरोध करने के बजाय उसे ही सही ठहराया और महिला को गलत और अस्थिर बताया. इसी आधार पर उसने कथित तौर पर नकली मनोवैज्ञानिक रिपोर्ट तैयार कीं और उन्हें महिला के परिवार, दोस्तों और ऑफिस में भेजा जिससे उसकी छवि खराब हुई.
खतरनाक कंटेंट के बावजूद अकाउंट फिर चालू
रिपोर्ट के अनुसार, अगस्त 2025 में OpenAI के सिस्टम ने उसके अकाउंट को खतरनाक एक्टिविटी के चलते बंद कर दिया था. लेकिन अगले ही दिन ह्यूमन टीम ने समीक्षा के बाद उसे फिर से चालू कर दिया. बाद में सामने आए स्क्रीनशॉट्स में violence list expansion और fetal suffocation calculation जैसे गंभीर टॉपिक्स दिखे जो उसकी मानसिक स्थिति पर सवाल खड़े करते हैं.
शिकायत के बाद भी नहीं मिला जवाब
पीड़िता ने नवंबर में OpenAI को औपचारिक शिकायत भेजी और बताया कि पिछले कई महीनों से वह डर के माहौल में जी रही है. उसने यह भी कहा कि इस तकनीक का इस्तेमाल उसके खिलाफ हथियार की तरह किया जा रहा है. कंपनी ने शिकायत को गंभीर बताया लेकिन इसके बाद कोई ठोस कार्रवाई या जवाब नहीं दिया गया.
मामला और गंभीर हुआ, आरोपी गिरफ्तार
आगे चलकर आरोपी ने महिला को धमकी भरे वॉइसमेल भेजे. जनवरी में उसे बम की धमकी देने और घातक हथियार से हमला करने जैसे गंभीर आरोपों में गिरफ्तार कर लिया गया. हालांकि बाद में उसे मानसिक रूप से ट्रायल के लायक नहीं माना गया और उसे मानसिक स्वास्थ्य केंद्र भेज दिया गया. रिपोर्ट्स के मुताबिक, प्रोसेस में खामी के कारण वह जल्द ही बाहर आ सकता है.
कानूनी बहस तेज
इस केस ने AI कंपनियों की जिम्मेदारी को लेकर नई बहस छेड़ दी है. एक तरफ कंपनियां खुद को कानूनी सुरक्षा देने की कोशिश कर रही हैं वहीं दूसरी तरफ ऐसे मामले यह दिखा रहे हैं कि तकनीक का गलत इस्तेमाल कितना खतरनाक हो सकता है. अब सबकी नजर इस बात पर है कि अदालत इस मामले में क्या फैसला सुनाती है और क्या इससे AI इंडस्ट्री के लिए नए नियम बनेंगे.
यह भी पढ़ें: