← 返回列表

AI श्रृंखला साक्षात्कार 8: RAG क्या है? RAG परियोजना क्यों शुरू करें?

RAG क्या है?

RAG का पूरा नाम Retrieval-Augmented Generation है, जिसका हिंदी अर्थ पुनर्प्राप्ति-वर्धित उत्पादन है।

सरल शब्दों में, यह एक ऐसी तकनीक है जो बड़े भाषा मॉडल को "एक संदर्भ पुस्तक प्रदान करती है जिसे कभी भी पलटा जा सकता है"।

आप बड़े भाषा मॉडल की कल्पना एक अद्वितीय स्मृति और विशाल ज्ञान वाले "सुपर छात्र" के रूप में कर सकते हैं। लेकिन इस छात्र में दो जन्मजात "कमियाँ" हैं:

  1. ज्ञान की समाप्ति तिथि: उसका ज्ञान केवल प्रशिक्षण डेटा तक सीमित है। 2023 के बाद की घटनाओं के बारे में वह कुछ नहीं जानता।
  2. संभावित "मनगढ़ंत जवाब": जब उसे किसी प्रश्न का उत्तर नहीं पता होता, तो वह "मुझे नहीं पता" नहीं कहता, बल्कि अपनी कल्पना से एक उचित लगने वाला उत्तर गढ़ता है (यह AI भ्रम है)।

RAG इन दो समस्याओं को हल करने के लिए है। इसकी कार्यप्रणाली सरल है, तीन चरणों में:

  1. पुनर्प्राप्ति: जब आप कोई प्रश्न पूछते हैं, तो सिस्टम पहले एक "बाहरी ज्ञानकोष" (जैसे आपकी कंपनी के सभी दस्तावेज़, नवीनतम विकिपीडिया, या कानूनी प्रावधान) में तेजी से खोज करता है और सबसे प्रासंगिक जानकारी के कुछ अंश निकालता है। यह छात्र को प्रश्न के लिए पुस्तक में देखने जैसा है।
  2. वर्धन: सिस्टम "आपके प्रश्न" और "पुनर्प्राप्त प्रासंगिक अंशों" को एक साथ पैक करके एक "वर्धित" प्रॉम्प्ट बनाता है। यह छात्र को एक संदर्भ सामग्री देने जैसा है।
  3. उत्पादन: बड़ा भाषा मॉडल इस "वर्धित" प्रॉम्प्ट के आधार पर अंतिम उत्तर उत्पन्न करता है। अब वह केवल अपनी स्मृति में पुराने ज्ञान पर निर्भर नहीं रहता, बल्कि मुख्य रूप से आपके द्वारा प्रदान की गई "संदर्भ सामग्री" के आधार पर उत्तर देता है। यह छात्र के पुस्तक देखकर उत्तर देने जैसा है, न कि कल्पना करके।

एक सरल उदाहरण:
- पारंपरिक LLM: "मेरे XX मॉडल साइकिल की मरम्मत कैसे करूं?" → मॉडल स्मृति से उत्तर देता है, जो पुराना या गलत हो सकता है।
- RAG: "मेरे XX मॉडल साइकिल की मरम्मत कैसे करूं?" → पहले नवीनतम आधिकारिक मरम्मत मैनुअल खोजता है → फिर उत्पन्न करता है: "2024 संस्करण मरम्मत मैनुअल के अध्याय 3 के अनुसार, आपको पहले..."


RAG परियोजना क्यों शुरू करें?

RAG परियोजना शुरू करने का मूल उद्देश्य कमियों को दूर करते हुए खूबियों का उपयोग करना और बड़े भाषा मॉडल की वास्तविक क्षमता को उजागर करना है। मुख्य प्रेरक कारक निम्नलिखित हैं:

  1. "पुराना ज्ञान" और "भ्रम" की समस्या का समाधान
  2. प्रेरणा: LLM को नवीनतम घटनाओं, आंतरिक डेटा, निजी दस्तावेज़ों के बारे में प्रश्नों के उत्तर देने में सक्षम बनाना, साथ ही उत्तरों की सत्यापन क्षमता सुनिश्चित करना।
  3. मूल्य: एक चिकित्सा प्रश्नोत्तर प्रणाली जो RAG कर सकती है, वह नवीनतम चिकित्सा पत्रिकाओं का हवाला देते हुए "कोविड-19 के नए वेरिएंट के लक्षण" का उत्तर दे सकती है, न कि 2021 की पुरानी जानकारी, और स्रोतों का उल्लेख कर सकती है, जिससे "मनमाने उत्तर" का जोखिम कम हो जाता है।

  4. AI को "निजी डेटा" संभालने में सक्षम बनाना, सुरक्षा सुनिश्चित करते हुए

  5. प्रेरणा: हर कंपनी के पास अपना ज्ञानकोष होता है (अनुबंध, कोड, ग्राहक सेवा रिकॉर्ड आदि)। इस डेटा का उपयोग मॉडल को पुनः प्रशिक्षित या फाइन-ट्यून करने के लिए नहीं किया जा सकता (उच्च लागत, तकनीकी कठिनाई, डेटा लीक का जोखिम)।
  6. मूल्य: RAG के माध्यम से, आप एक कंपनी के आंतरिक "AI प्रश्नोत्तर सहायक" का निर्माण कर सकते हैं। कर्मचारी प्रश्न पूछते हैं, AI कंपनी के आंतरिक निजी दस्तावेज़ों से प्रासंगिक जानकारी खोजकर उत्तर देता है। निजी डेटा हमेशा कंपनी के भीतर रहता है, मॉडल निर्माता को प्रशिक्षण के लिए नहीं भेजा जाता, जिससे LLM की समझ क्षमता का उपयोग होता है और डेटा सुरक्षा सुनिश्चित होती है।

  7. लागत कम करना, दक्षता बढ़ाना

  8. प्रेरणा: नए ज्ञान को शामिल करने के लिए एक बड़े मॉडल को पुनः प्रशिक्षित या फाइन-ट्यून करना, जैसे पूरे पुस्तकालय को फिर से पढ़ना, भारी कंप्यूटिंग और लागत की आवश्यकता होती है।
  9. मूल्य: RAG को लगभग प्रशिक्षण की आवश्यकता नहीं होती, केवल पुनर्प्राप्ति प्रणाली बनाने की आवश्यकता होती है। लागत फाइन-ट्यूनिंग के 1% या उससे भी कम हो सकती है। इसके अलावा, ज्ञानकोष अपडेट होने पर पुनर्प्राप्ति परिणाम स्वचालित रूप से अपडेट हो जाते हैं, मॉडल को पुनः प्रशिक्षित करने की आवश्यकता नहीं, जिससे "रीयल-टाइम अपडेट" संभव होता है।

  10. AI को "जो जानता है वह जानता है, जो नहीं जानता वह नहीं जानता" बनाना

  11. प्रेरणा: मॉडल को अपने ज्ञान की सीमाओं के बारे में स्पष्ट जागरूकता रखने की इच्छा।
  12. मूल्य: RAG प्रणाली में एक नियम निर्धारित किया जा सकता है: यदि प्रासंगिक दस्तावेज़ नहीं मिलता, तो सीधे उत्तर दें "क्षमा करें, मुझे ज्ञानकोष में प्रासंगिक जानकारी नहीं मिली। कृपया अपना प्रश्न सत्यापित करें।" यह "उद्धरण विफलता" तंत्र AI के संचालन को अधिक विश्वसनीय और पारदर्शी बनाता है।

सारांश:

RAG परियोजना शुरू करने का कारण यह है कि हम बड़े भाषा मॉडल की शक्तिशाली समझ और अभिव्यक्ति क्षमता चाहते हैं, साथ ही इसे 'ईमानदार, विश्वसनीय, समय के साथ अद्यतन, और निजी व्यवसाय को समझने वाला' बनाना चाहते हैं। यह एक सुपर इंजन (LLM) को सटीक नियंत्रित स्टीयरिंग व्हील और रीयल-टाइम अपडेटेड नेविगेशन मैप (पुनर्प्राप्ति प्रणाली) से लैस करने जैसा है, और यह वर्तमान में LLM को उद्यम, चिकित्सा, कानून, वित्त जैसे गंभीर क्षेत्रों में वास्तविक रूप से लागू करने के लिए सबसे प्रभावी और मुख्यधारा के तकनीकी मार्गों में से एक है।

评论

暂无已展示的评论。

发表评论(匿名)