← 返回列表

AI श्रृंखला साक्षात्कार 12: Prompt का अनुकूलन कैसे करें?

Prompt अनुकूलन (Prompt Engineering / Optimization) बड़ी भाषा मॉडल (LLM) को "आज्ञाकारी" बनाने का मुख्य कौशल है, खासकर RAG सिस्टम में, जो सीधे तय करता है कि मॉडल खोजे गए कंटेंट के प्रति वफादार रहेगा, भ्रम (hallucination) से बचेगा, और आउटपुट प्रारूप को नियंत्रित करेगा।


1. Prompt अनुकूलन के मूल सिद्धांत

  1. स्पष्टता > जटिलता: सरल सीधे निर्देश अक्सर फैंसी चेन-ऑफ-थॉट से अधिक प्रभावी होते हैं।
  2. पर्याप्त बाधाएँ दें: मॉडल को स्पष्ट रूप से बताएं कि "क्या कर सकते हैं, क्या नहीं"।
  3. उदाहरण प्रदान करें: Few-shot Zero-shot से अधिक स्थिर होता है।
  4. सत्यापनीयता : मॉडल से उद्धरण या विश्वास स्तर आउटपुट करने को कहें, ताकि डाउनस्ट्रीम निर्णय ले सके।
  5. पुनरावृत्तीय अनुकूलन: आधार रेखा से शुरू करें, एक बार में केवल एक चर बदलें, प्रभाव की तुलना करें।

2. विशिष्ट अनुकूलन तकनीक (सरल से कठिन तक)

1. भूमिका निर्धारण (System Prompt)

आप एक पेशेवर ग्राहक सहायता सहायक हैं। आप केवल नीचे दिए गए 【संदर्भ सामग्री】 के आधार पर उत्तर दे सकते हैं।
यदि आप उत्तर नहीं जानते, तो सीधे कहें "सामग्री में प्रासंगिक जानकारी नहीं है", स्वयं न बनाएं।
  • उद्देश्य: सीमाएँ और लहजा निर्धारित करना।
  • अनुकूलन बिंदु: लहजा (पेशेवर/मैत्रीपूर्ण), बाधा की तीव्रता (सख्त/ढीला)।

2. स्पष्ट निर्देश

❌ खराब: "उपयोगकर्ता के प्रश्न का उत्तर दें।"
✅ अच्छा: "केवल नीचे दिए गए 【संदर्भ सामग्री】 के आधार पर उत्तर दें। यदि संदर्भ सामग्री में उत्तर नहीं है, तो कहें 'मैं इस प्रश्न का उत्तर नहीं दे सकता'।"

3. आउटपुट प्रारूप नियंत्रण

कृपया निम्नलिखित JSON प्रारूप में आउटपुट दें:
{
  "answer": "आपका उत्तर",
  "confidence": "उच्च/मध्यम/निम्न",
  "sources": [1, 3]
}
  • उपयोग: डाउनस्ट्रीम पार्सिंग, संदर्भ, डिबगिंग के लिए सुविधाजनक।

4. Few-shot उदाहरण (अत्यंत प्रभावी)

उदाहरण 1:
प्रश्न: वार्षिक छुट्टी कितने दिन है?
संदर्भ सामग्री: वार्षिक छुट्टी नियम: 1 वर्ष पूरा होने पर 5 दिन, 10 वर्ष पूरा होने पर 10 दिन।
उत्तर: 1 वर्ष पर 5 दिन, 10 वर्ष पर 10 दिन।

उदाहरण 2:
प्रश्न: ओवरटाइम का भुगतान कैसे गणना करें?
संदर्भ सामग्री: कार्यदिवस ओवरटाइम 1.5 गुना, सप्ताहांत 2 गुना।
उत्तर: कार्यदिवस 1.5 गुना, सप्ताहांत 2 गुना।

अब उत्तर दें:
प्रश्न: {उपयोगकर्ता प्रश्न}
संदर्भ सामग्री: {खोज सामग्री}
उत्तर:
  • टिप: उदाहरण विभिन्न कठिनाई स्तरों को कवर करें, और एक "उत्तर नहीं दे सकता" का उदाहरण भी शामिल करें।

5. अनिवार्य संदर्भ

उत्तर के अंत में स्रोत संख्या [citation:X] के साथ चिह्नित करें। उदाहरण: "वार्षिक छुट्टी 5 दिन है[citation:1]।" यदि एकाधिक स्रोतों को संयोजित करते हैं, तो अलग-अलग चिह्नित करें।

6. उत्तर देने से इनकार करने की सीमा निर्धारित करें

  • कठोर बाधा: "यदि संदर्भ सामग्री प्रश्न से पूरी तरह असंबंधित है, तो कहें 'सामग्री अप्रासंगिक है'।"
  • नरम बाधा: खोज विश्वास स्कोर के साथ संयोजन करें, सीमा से नीचे होने पर स्वचालित रूप से इनकार शाखा पर जाएं।

7. श्रृंखला-चिंतन (Chain-of-Thought) बहु-चरणीय तर्क के लिए

प्रश्न: झांग सान का बॉस कौन है?
चरण: 1. पहले झांग सान का विभाग खोजें। 2. फिर उस विभाग का प्रमुख खोजें। 3. अंतिम उत्तर दें।
कृपया चरणों के अनुसार सोचकर आउटपुट दें।

8. नकारात्मक निर्देश (Negative Prompting)

उत्तर स्वयं न बनाएं। "शायद", "संभावित" जैसे अस्पष्ट शब्दों का उपयोग न करें। संदर्भ सामग्री के बाहर कोई संख्या आउटपुट न करें।

3. Prompt की गुणवत्ता का मूल्यांकन कैसे करें?

संकेतक अर्थ मापन विधि
वफादारी उत्तर कितना संदर्भ सामग्री पर आधारित है मानव या RAGAS का Faithfulness
इनकार सटीकता क्या आवश्यक होने पर उत्तर देने से इनकार करता है बिना उत्तर वाले परीक्षण सेट पर गणना
प्रारूप अनुपालन दर क्या JSON/उद्धरण का आउटपुट आवश्यकतानुसार होता है regex मिलान
उपयोगकर्ता संतुष्टि उत्तर उपयोगी है या नहीं ऑनलाइन फीडबैक / A/B परीक्षण

सुझाव: एक छोटा परीक्षण सेट तैयार करें (20-50 किनारे के मामले), हर बार prompt बदलने पर चलाएं, बदलाव रिकॉर्ड करें।

4. सामान्य नुकसान और अनुकूलन दिशा

समस्या व्यवहार संभावित कारण अनुकूलन विधि
मॉडल संदर्भ सामग्री को अनदेखा कर स्वयं उत्तर देता है निर्देश पर्याप्त मजबूत नहीं है "केवल निम्न सामग्री के आधार पर" में बदलें, और few-shot में इनकार दिखाएं
मॉडल हमेशा "नहीं जानता" कहता है इनकार सीमा बहुत अधिक है सीमा कम करें या खोज गुणवत्ता जांचें
आउटपुट प्रारूप गड़बड़, JSON का पालन नहीं करता निर्देश अस्पष्ट हैं सख्त प्रारूप उदाहरण जोड़ें, या function calling का उपयोग करें
उत्तर बहुत लंबा/बहुत छोटा है लंबाई निर्दिष्ट नहीं की "3 वाक्यों से अधिक नहीं उत्तर दें"
बहु-चरणीय तर्क में त्रुटि मॉडल की तर्क क्षमता अपर्याप्त है चरण-दर-चरण तर्क दिखाने के लिए कहें, या मजबूत मॉडल पर स्विच करें
भ्रमपूर्ण संख्या/तारीख दिखाई देती है मॉडल अपने ज्ञान पर निर्भर करता है जोर दें: "अपनी स्मृति से किसी भी संख्या का उपयोग न करें, केवल सामग्री देखें"

评论

暂无已展示的评论。

发表评论(匿名)