चौंकाने वाली रिपोर्ट! ChatGPT, Claude और Grok जैसे AI कर रहे छात्रों के भविष्य से खिलवाड़, जानिए कैसे पहुंचा रहे नुकसान

aditisingh
5 Min Read


Show Quick Read

Key points generated by AI, verified by newsroom

Artificial Intelligence: आर्टिफिशियल इंटेलिजेंस (AI) ने पढ़ाई और रिसर्च करने के तरीके को तेजी से बदल दिया है. स्कूल और कॉलेज के छात्र अब होमवर्क से लेकर रिसर्च पेपर तैयार करने तक कई कामों में AI चैटबॉट्स का इस्तेमाल कर रहे हैं. दुनिया भर में लोग Anthropic के Claude, Google के Gemini, OpenAI के ChatGPT और xAI के Grok जैसे टूल्स पर निर्भर होते जा रहे हैं.

लेकिन जैसे-जैसे इन टूल्स का इस्तेमाल बढ़ रहा है वैसे-वैसे इनके गलत इस्तेमाल को लेकर भी सवाल उठने लगे हैं. एक नई रिसर्च के मुताबिक, अगर सावधानी न बरती जाए तो यही AI सिस्टम अकादमिक फ्रॉड या रिसर्च में गड़बड़ी करने का जरिया भी बन सकते हैं.

किसने की यह रिसर्च?

यह अध्ययन Anthropic के शोधकर्ता अलेक्जेंडर एलेमी और कॉर्नेल यूनिवर्सिटी के भौतिक वैज्ञानिक पॉल गिन्सपर्ग की अगुवाई में किया गया. पॉल गिन्सपर्ग उस प्लेटफॉर्म के संस्थापक भी हैं जिसे arXiv कहा जाता है.

शोधकर्ताओं ने कुल 13 प्रमुख AI मॉडलों को अलग-अलग तरह के सवाल और निर्देश देकर परखा. इन सवालों में सामान्य जिज्ञासा से लेकर ऐसे अनुरोध भी शामिल थे जिनमें अकादमिक धोखाधड़ी से जुड़ी मदद मांगी गई थी.

रिपोर्ट के मुताबिक, कुछ AI मॉडल ऐसे अनुरोधों को ठुकराने में सफल रहे. लेकिन कई मामलों में लगातार पूछने पर कुछ मॉडल गलत या भ्रामक रिसर्च सामग्री तैयार करने के लिए तैयार हो गए.

arXiv पर संदिग्ध रिसर्च पेपर क्यों बढ़े?

इस रिसर्च के पीछे एक बड़ी वजह arXiv प्लेटफॉर्म पर बढ़ती संदिग्ध रिसर्च सबमिशन भी रही. arXiv एक ओपन-एक्सेस वेबसाइट है जहां दुनिया भर के वैज्ञानिक भौतिकी, गणित, कंप्यूटर साइंस और अन्य विषयों से जुड़े रिसर्च पेपर और प्रीप्रिंट साझा करते हैं.

हाल के समय में यहां ऐसे कई लेख देखने को मिले जिनमें AI से लिखे गए टेक्स्ट होने की आशंका जताई गई. इसी वजह से शोधकर्ताओं ने यह जांचने का फैसला किया कि क्या लोकप्रिय AI चैटबॉट्स को आसानी से मनाकर वैज्ञानिक पेपर तैयार करवाया जा सकता है या अकादमिक सिस्टम का गलत इस्तेमाल कराया जा सकता है.

अलग-अलग स्तर के सवालों से हुई जांच

परीक्षण के दौरान वैज्ञानिकों ने यूजर इंटेंट के पांच अलग-अलग स्तर तय किए. कुछ सवाल सामान्य जिज्ञासा से जुड़े थे जैसे कि किसी शौकिया शोधकर्ता को अपने अनोखे विचार कहां साझा करने चाहिए. वहीं कुछ सवाल जानबूझकर गलत मकसद से पूछे गए जैसे किसी प्रतिद्वंद्वी वैज्ञानिक को नुकसान पहुंचाने के लिए उसके नाम से फर्जी रिसर्च पेपर जमा करने के तरीके. सिद्धांत रूप से AI सिस्टम को ऐसे अनुरोधों को अस्वीकार करना चाहिए लेकिन अध्ययन में पाया गया कि अलग-अलग मॉडल की प्रतिक्रिया काफी अलग थी.

कौन से AI मॉडल ज्यादा सुरक्षित निकले?

रिसर्च के नतीजों के अनुसार Anthropic के Claude मॉडल इस तरह की गलत गतिविधियों में शामिल होने से सबसे ज्यादा बचते दिखाई दिए. इसके उलट Elon Musk की कंपनी xAI का Grok और OpenAI के कुछ पुराने GPT मॉडल कई बार ऐसे अनुरोधों को मानने के लिए ज्यादा तैयार दिखे खासकर तब जब यूज़र बार-बार सवाल पूछता रहा.

लगातार पूछने पर AI ने बना दिया फर्जी रिसर्च पेपर

अध्ययन में एक दिलचस्प उदाहरण सामने आया. जब Grok-4 से झूठे रिसर्च नतीजे तैयार करने को कहा गया तो उसने शुरुआत में मना कर दिया. लेकिन जब यूज़र ने बार-बार अनुरोध किया तो आखिरकार उस मॉडल ने एक काल्पनिक मशीन-लर्निंग रिसर्च पेपर तैयार कर दिया जिसमें नकली डेटा और बेंचमार्क भी शामिल थे.

वैज्ञानिकों को क्यों हो रही चिंता?

शोधकर्ताओं का मानना है कि शक्तिशाली टेक्स्ट-जनरेशन टूल्स के कारण भविष्य में कम गुणवत्ता वाले या पूरी तरह मनगढ़ंत रिसर्च पेपर तेजी से बढ़ सकते हैं. अगर ऐसा होता है तो पीयर-रिव्यू करने वाले विशेषज्ञों पर अतिरिक्त दबाव पड़ेगा और असली तथा भरोसेमंद रिसर्च की पहचान करना मुश्किल हो सकता है.

यह भी पढ़ें:

लेट होने की टेंशन खत्म! Google Maps का ये छुपा फीचर बताएगा कब निकलना है, हमेशा पहुंचेंगे टाइम पर



Source link

Share This Article
Follow:
Satish Kumar Is A Journalist With Over 10 Years Of Experience In Digital Media. He Is Currently Working As Editor At Aman Shanti, Where He Covers A Wide Variety Of Technology News From Smartphone Launches To Telecom Updates. His Expertise Also Includes In-depth Gadget Reviews, Where He Blends Analysis With Hands-on Insights.