खतरे की घंटी! लोग बिना सोचे-समझे मान रहे हैं AI चैटबॉट की हर बात, नई स्टडी ने उड़ाए होश

सतीश कुमार
5 Min Read

AI Chatbot: आर्टिफिशियल इंटेलिजेंस कंपनी Anthropic की एक नई स्टडी में चौंकाने वाला खुलासा हुआ है. रिसर्च के मुताबिक, बड़ी संख्या में यूजर्स अब AI चैटबॉट की सलाह को बिना सोचे-समझे मानने लगे हैं और कई बार अपनी इंसानी समझ व अंतर्ज्ञान को नजरअंदाज कर रहे हैं. यह अध्ययन खासतौर पर Anthropic के AI चैटबॉट Claude पर केंद्रित है.

रिसर्च का मकसद और दायरा

यह अध्ययन Who’s in Charge? Disempowerment Patterns in Real-World LLM Usage नाम के रिसर्च पेपर में प्रकाशित हुआ है जिसे Anthropic और यूनिवर्सिटी ऑफ टोरंटो के शोधकर्ताओं ने मिलकर तैयार किया. इसका उद्देश्य यह समझना था कि AI चैटबॉट्स से बातचीत करते समय यूजर्स किस हद तक अपनी स्वतंत्र सोच खो सकते हैं और किन हालात में यह नुकसानदेह बन सकता है.

कैसे बदल सकता है AI यूजर्स की सोच और फैसले

रिसर्च में बताया गया है कि AI चैटबॉट कुछ स्थितियों में यूजर की सोच या व्यवहार को नकारात्मक दिशा में प्रभावित कर सकता है. उदाहरण के तौर पर, अगर कोई यूजर किसी साजिश या अप्रमाणित थ्योरी पर विश्वास करता है तो AI द्वारा उसे सही ठहराना रियलिटी डिस्टॉर्शन माना गया है. इसी तरह, गलत रिश्तों को सही बताना या यूजर को अपने मूल्यों के खिलाफ कदम उठाने के लिए प्रेरित करना भी गंभीर जोखिम के रूप में सामने आया.

लाखों बातचीत का विश्लेषण

शोधकर्ताओं ने Claude के साथ हुई करीब 15 लाख से ज्यादा वास्तविक और गुमनाम बातचीत का अध्ययन किया. इसमें पाया गया कि हर 1,300 बातचीत में से एक में वास्तविकता से जुड़ी गड़बड़ी के संकेत दिखे जबकि हर 6,000 बातचीत में से एक में यूजर के गलत कदम उठाने की आशंका नजर आई. संख्या भले ही कम लगे लेकिन Anthropic का मानना है कि AI के बड़े पैमाने पर इस्तेमाल को देखते हुए इसका असर काफी लोगों पर पड़ सकता है.

समय के साथ बढ़ रहा है खतरा

रिसर्च में यह भी सामने आया कि समय के साथ ऐसे मामलों की संख्या बढ़ रही है जहां AI यूजर की स्वतंत्र सोच को कमजोर कर सकता है. कुछ आकलनों के अनुसार, हर 50 से 70 बातचीत में से एक में कम से कम हल्के स्तर का जोखिम मौजूद रहता है. यहां डिसएंपावरमेंट का मतलब है जब AI यूजर के फैसलों, विश्वासों और मूल्यों पर इतना हावी हो जाए कि उसकी खुद की सोच प्रभावित होने लगे.

भावनात्मक रूप से कमजोर यूजर्स सबसे ज्यादा प्रभावित

Anthropic के अनुसार, ये जोखिम खासतौर पर उन यूजर्स में ज्यादा दिखे जो भावनात्मक रूप से कठिन दौर से गुजर रहे थे या बार-बार व्यक्तिगत और संवेदनशील फैसलों के लिए AI पर निर्भर हो रहे थे. दिलचस्प बात यह है कि ऐसे यूजर्स बातचीत के दौरान AI की सलाह से संतुष्ट दिखे लेकिन बाद में फैसलों के नतीजों से असंतोष भी जताया.

AI साइकोसिस को लेकर बढ़ती चिंता

यह रिपोर्ट ऐसे समय आई है, जब AI साइकोसिस को लेकर वैश्विक स्तर पर चिंता बढ़ रही है. यह शब्द उन हालात के लिए इस्तेमाल किया जा रहा है, जहां AI से लंबी बातचीत के बाद यूजर्स में भ्रम, गलत धारणाएं या मानसिक अस्थिरता देखी जाती है. कुछ मामलों में गंभीर मानसिक स्वास्थ्य संकट की भी रिपोर्ट सामने आई है.

सलाह मानने के पीछे ये हैं बड़े कारण

स्टडी में चार ऐसे प्रमुख कारण बताए गए, जिनकी वजह से यूजर्स AI की बातों को बिना सवाल किए मानने लगते हैं. इसमें AI को अंतिम और सर्वोच्च authority मानना, उससे भावनात्मक जुड़ाव बन जाना, निजी संकट के दौर से गुजरना और बार-बार फैसलों की जिम्मेदारी AI पर छोड़ देना शामिल है.

रिसर्च की सीमाएं भी मानी गईं

Anthropic ने यह भी साफ किया कि यह अध्ययन संभावित जोखिमों को दर्शाता है, न कि हर मामले में वास्तविक नुकसान को. साथ ही, AI और यूजर के बीच यह एक दोतरफा प्रक्रिया है जहां कई बार यूजर खुद ही अपनी निर्णय क्षमता AI को सौंप देता है.

Share This Article
Satish Kumar Is A Journalist With Over 10 Years Of Experience In Digital Media. He Is Currently Working As Editor At Aman Shanti, Where He Covers A Wide Variety Of Technology News From Smartphone Launches To Telecom Updates. His Expertise Also Includes In-depth Gadget Reviews, Where He Blends Analysis With Hands-on Insights.