AI Chatbot: आर्टिफिशियल इंटेलिजेंस कंपनी Anthropic की एक नई स्टडी में चौंकाने वाला खुलासा हुआ है. रिसर्च के मुताबिक, बड़ी संख्या में यूजर्स अब AI चैटबॉट की सलाह को बिना सोचे-समझे मानने लगे हैं और कई बार अपनी इंसानी समझ व अंतर्ज्ञान को नजरअंदाज कर रहे हैं. यह अध्ययन खासतौर पर Anthropic के AI चैटबॉट Claude पर केंद्रित है.
रिसर्च का मकसद और दायरा
यह अध्ययन Who’s in Charge? Disempowerment Patterns in Real-World LLM Usage नाम के रिसर्च पेपर में प्रकाशित हुआ है जिसे Anthropic और यूनिवर्सिटी ऑफ टोरंटो के शोधकर्ताओं ने मिलकर तैयार किया. इसका उद्देश्य यह समझना था कि AI चैटबॉट्स से बातचीत करते समय यूजर्स किस हद तक अपनी स्वतंत्र सोच खो सकते हैं और किन हालात में यह नुकसानदेह बन सकता है.
कैसे बदल सकता है AI यूजर्स की सोच और फैसले
रिसर्च में बताया गया है कि AI चैटबॉट कुछ स्थितियों में यूजर की सोच या व्यवहार को नकारात्मक दिशा में प्रभावित कर सकता है. उदाहरण के तौर पर, अगर कोई यूजर किसी साजिश या अप्रमाणित थ्योरी पर विश्वास करता है तो AI द्वारा उसे सही ठहराना रियलिटी डिस्टॉर्शन माना गया है. इसी तरह, गलत रिश्तों को सही बताना या यूजर को अपने मूल्यों के खिलाफ कदम उठाने के लिए प्रेरित करना भी गंभीर जोखिम के रूप में सामने आया.
लाखों बातचीत का विश्लेषण
शोधकर्ताओं ने Claude के साथ हुई करीब 15 लाख से ज्यादा वास्तविक और गुमनाम बातचीत का अध्ययन किया. इसमें पाया गया कि हर 1,300 बातचीत में से एक में वास्तविकता से जुड़ी गड़बड़ी के संकेत दिखे जबकि हर 6,000 बातचीत में से एक में यूजर के गलत कदम उठाने की आशंका नजर आई. संख्या भले ही कम लगे लेकिन Anthropic का मानना है कि AI के बड़े पैमाने पर इस्तेमाल को देखते हुए इसका असर काफी लोगों पर पड़ सकता है.
समय के साथ बढ़ रहा है खतरा
रिसर्च में यह भी सामने आया कि समय के साथ ऐसे मामलों की संख्या बढ़ रही है जहां AI यूजर की स्वतंत्र सोच को कमजोर कर सकता है. कुछ आकलनों के अनुसार, हर 50 से 70 बातचीत में से एक में कम से कम हल्के स्तर का जोखिम मौजूद रहता है. यहां डिसएंपावरमेंट का मतलब है जब AI यूजर के फैसलों, विश्वासों और मूल्यों पर इतना हावी हो जाए कि उसकी खुद की सोच प्रभावित होने लगे.
भावनात्मक रूप से कमजोर यूजर्स सबसे ज्यादा प्रभावित
Anthropic के अनुसार, ये जोखिम खासतौर पर उन यूजर्स में ज्यादा दिखे जो भावनात्मक रूप से कठिन दौर से गुजर रहे थे या बार-बार व्यक्तिगत और संवेदनशील फैसलों के लिए AI पर निर्भर हो रहे थे. दिलचस्प बात यह है कि ऐसे यूजर्स बातचीत के दौरान AI की सलाह से संतुष्ट दिखे लेकिन बाद में फैसलों के नतीजों से असंतोष भी जताया.
AI साइकोसिस को लेकर बढ़ती चिंता
यह रिपोर्ट ऐसे समय आई है, जब AI साइकोसिस को लेकर वैश्विक स्तर पर चिंता बढ़ रही है. यह शब्द उन हालात के लिए इस्तेमाल किया जा रहा है, जहां AI से लंबी बातचीत के बाद यूजर्स में भ्रम, गलत धारणाएं या मानसिक अस्थिरता देखी जाती है. कुछ मामलों में गंभीर मानसिक स्वास्थ्य संकट की भी रिपोर्ट सामने आई है.
सलाह मानने के पीछे ये हैं बड़े कारण
स्टडी में चार ऐसे प्रमुख कारण बताए गए, जिनकी वजह से यूजर्स AI की बातों को बिना सवाल किए मानने लगते हैं. इसमें AI को अंतिम और सर्वोच्च authority मानना, उससे भावनात्मक जुड़ाव बन जाना, निजी संकट के दौर से गुजरना और बार-बार फैसलों की जिम्मेदारी AI पर छोड़ देना शामिल है.
रिसर्च की सीमाएं भी मानी गईं
Anthropic ने यह भी साफ किया कि यह अध्ययन संभावित जोखिमों को दर्शाता है, न कि हर मामले में वास्तविक नुकसान को. साथ ही, AI और यूजर के बीच यह एक दोतरफा प्रक्रिया है जहां कई बार यूजर खुद ही अपनी निर्णय क्षमता AI को सौंप देता है.

