Are You Sure? पूछते ही बदल जाता है AI का जवाब! आखिर क्यों पलट जाते हैं चैटबॉट्स, जानिए पूरी जानकारी

सतीश कुमार
4 Min Read


Show Quick Read

Key points generated by AI, verified by newsroom

AI Chatbots: अगर आप रोजाना ChatGPT, Gemini या Claude जैसे AI चैटबॉट इस्तेमाल करते हैं तो आपने एक अजीब बात जरूर नोटिस की होगी. ये सिस्टम आम तौर पर बहुत आत्मविश्वास से भरे, सधे हुए जवाब देते हैं. लेकिन जैसे ही आप पूछते हैं, “क्या आप पक्के हैं?” या “Are you sure?”, वही जवाब अचानक बदल सकता है. कई बार नया उत्तर पहले वाले से अलग बल्कि पूरी तरह उल्टा भी होता है. अगर आप बार-बार चुनौती देते रहें तो मॉडल फिर से अपना रुख बदल सकता है. सवाल यह है कि ऐसा क्यों होता है? क्या AI को अपने जवाब पर भरोसा नहीं होता?

साइकोफैंसी यानी खुश करने की प्रवृत्ति

इस व्यवहार को तकनीकी दुनिया में साइकोफैंसी कहा जाता है यानी यूजर को खुश करने या उसकी बात से सहमत होने की प्रवृत्ति. Randal S. Olson जो Goodeye Labs के सह-संस्थापक और CTO हैं बताते हैं कि यह आधुनिक AI सिस्टम की एक जानी-पहचानी कमजोरी है.

दरअसल, इन मॉडलों को इस तरह प्रशिक्षित किया जाता है कि वे मानव प्रतिक्रिया के आधार पर बेहतर बनें. इस प्रक्रिया को RLHF (Reinforcement Learning from Human Feedback) कहा जाता है. इसी ट्रेनिंग के कारण चैटबॉट ज्यादा सभ्य, संवादात्मक और कम आपत्तिजनक बनते हैं. लेकिन इसका एक साइड इफेक्ट भी है वे असहमति जताने के बजाय सहमति की ओर झुक जाते हैं.

सच बोलने पर सजा, सहमत होने पर इनाम?

AI मॉडल को स्कोरिंग सिस्टम के जरिए सुधारा जाता है. अगर उसका जवाब यूज़र को पसंद आता है या सहमतिपूर्ण लगता है तो उसे बेहतर रेटिंग मिलती है. लेकिन अगर वह यूज़र की राय से टकराता है तो उसे कम स्कोर मिल सकता है. इससे एक तरह का चक्र बन जाता है जिसमें मॉडल धीरे-धीरे वही कहने लगता है जो सामने वाला सुनना चाहता है.

Anthropic ने 2023 में प्रकाशित एक शोध में दिखाया था कि मानव प्रतिक्रिया पर प्रशिक्षित मॉडल कई बार सटीक होने से ज्यादा ‘सहमत’ होने को प्राथमिकता देते हैं.

रिसर्च में क्या सामने आया?

एक अन्य अध्ययन में GPT-4o, Claude Sonnet और Gemini 1.5 Pro को गणित और मेडिकल जैसे गंभीर विषयों पर परखा गया. नतीजे चौंकाने वाले थे यूजर द्वारा चुनौती दिए जाने पर इन मॉडलों ने लगभग 60% मामलों में अपना जवाब बदल दिया. यानी यह कोई इक्का-दुक्का गलती नहीं, बल्कि एक आम प्रवृत्ति है.

जब बहुत ज्यादा सहमत हो गया AI

पिछले साल अप्रैल में OpenAI ने GPT-4o का एक अपडेट जारी किया, जिसके बाद चैटबॉट इतना ज्यादा सहमत और चापलूस हो गया कि उसका इस्तेमाल करना मुश्किल लगने लगा. कंपनी के CEO Sam Altman ने इस समस्या को स्वीकार किया और सुधार का दावा भी किया लेकिन विशेषज्ञों का मानना है कि जड़ में मौजूद समस्या अभी पूरी तरह खत्म नहीं हुई है.

यह भी पढ़ें:

फोन हो गया चोरी? घबराएं नहीं! Google की इस ट्रिक से मिनटों में ऐसे लगा सकते हैं पता, नहीं पड़ेगी किसी ऐप की जरूरत



Source link

Share This Article
Satish Kumar Is A Journalist With Over 10 Years Of Experience In Digital Media. He Is Currently Working As Editor At Aman Shanti, Where He Covers A Wide Variety Of Technology News From Smartphone Launches To Telecom Updates. His Expertise Also Includes In-depth Gadget Reviews, Where He Blends Analysis With Hands-on Insights.