Anthropic की रिसर्च, AI और Humans दोनों देते हैं Sycophantic Response

Updated 08-Jan-2025 By: Sudeep Saxena
Anthropic की रिसर्च, AI और Humans दोनों देते हैं Sycophantic Response

AI पर लगातार जारी है रिसर्च का सिलसिला

वर्तमान में Artificial intelligence (AI) सबसे अहम मुद्दा बना हुआ है। AI का बढ़ता विस्तार इसे नए कीर्तिमान हासिल करने में मदद कर रहा है। AI को लेकर नई घोषणाओं से लेकर इसमें नए-नए इनोवेशन होना जैसे ट्रेंड सा बन गया है। जहां देखों वहां AI के इस्तेमाल होने से लेकर इसके बारे में अक्सर चर्चाएं होती रहती है। यही वजह है कि वर्तमान में AI नई बुलंदियों को छूता नजर आ रहा है। इसी के साथ AI पर नई रिसर्च भी लगातार सामने आ रही है। कुछ दिन पहले North Carolina की यूनिवर्सिटी Chapel Hill के साइंटिस्ट्स ने प्रीप्रिंट AI पर एक रिसर्च को पेश किया था, जिसमें बताया गया था कि OpenAI के ChatGPT और Google Bard जैसे बड़े लैंग्वेज मॉडल से सेंसिटिव डेटा को हटाना कितना मुश्किल काम है। यूनिवर्सिटी Chapel Hill से पहले AI के इस्तेमाल से बढ़ रहे दुरुपयोगों की वजह से UK Watchdog ने इसे जोखिम करार दिया था। Mercer CFA Institute ने भी AI पर Global Pension Report पेश की थी, जिसमें बताया गया था कि AI पेंशन फंड को बड़ी मात्रा में एनालिसिस करने, इनवेस्टमेंट पोर्टफोलियो को कस्टमाईज करने और मार्केट एफर्ट्स को पर्सनलाइज करने में सहायता करता है। 

Anthropic ने AI और Humans पर पेश की रिसर्च

हाल ही में Anthropic ने AI और Humans पर एक रिसर्च पब्लिश की है। Anthropic की रिसर्च के अनुसार, Artificial intelligence (AI) द्वारा ऑपरेटेड बड़े लैंग्वेज मॉडल (LLM) अक्सर सही जबाव देने की जगह Sycophantic Response प्रोवाइड करते हैं। यह रिसर्च LLM के साइकोलॉजी पर अधिक फोकस करता है और निष्कर्ष निकालता है कि AI और Humans दोनों कम से कम से कुछ समय में करेक्ट आउटपुट पर बेस्ड Sycophantic Response को पसंद करते हैं। वहीं Anthropic की इस रिसर्च से पता चलता है कि LLM को संकेतों के आधार पर Sycophantic Responses प्रोवाइड करने के लिए अधिक प्रभावित किया जा सकता है, जो कि प्रिजस्टिस की सेंसिविटी को दर्शाता है। इतना ही नहीं यह समस्या LLM को ट्रेनिंग देने के तरीके से उत्पन्न हो सकती है, जिसमें अक्सर सटीकता के लिए अलग-अलग लेवल्स के साथ डेटा सेट का इस्तेमाल किया जाता है। 

LLM को Humans Feedback की रीइन्फोर्समेंट लर्निंग से किया जा सकता है ठीक

Anthropic ने अपनी रिसर्च के जरिए AI पर समाधान भी प्रदान किया है। Anthropic की रिसर्च में यह भी बताया गया है कि LLM को Humans Feedback की रीइन्फोर्समेंट लर्निंग के माध्यम से ठीक किया जा सकता है, जहां Humans अपने रिस्पॉन्स के जरिए मॉडल से बातचीत करते हैं। Anthropic का कहना है कि AI पर ऐसे प्रशिक्षण तरीकों को विकसित करने की आवश्यकता है, जो पूरी तरह से नॉन-एक्सपर्ट ह्यूमन रेटिंग पर निर्भर न हो। Anthropic ने अपनी बात को जारी रखते हुए कहा है कि AI मॉडल के डेवलपमेंट के लिए अधिक व्यापक दृष्टिकोण की आवश्यकता है, जिससे इसे सटीकता प्रदान की जा सके। 

यह भी पढ़े- AI सेफ्टी के लिए OpenAI के को-फाउंडर ने लॉन्च की नई फर्म

यह भी पढ़िए: इस बुल सीजन में इन 6 Altcoins ने किया है Bitcoin से बेहतर प्रदर्शन
WHAT'S YOUR OPINION?
सम्बंधित खबर
संबंधित ब्लॉग

Copyright © 2024 Crypto Hindi News. All Rights Reserved.