← 返回列表

Σειρά AI Συνέντευξη 12: Πώς να βελτιστοποιήσετε το Prompt;

Η βελτιστοποίηση προτροπής (Prompt Engineering / Optimization) είναι βασική δεξιότητα για να κάνετε τα μεγάλα γλωσσικά μοντέλα να «υπακούουν», ειδικά σε συστήματα RAG, καθορίζοντας άμεσα αν το μοντέλο θα βασιστεί πιστά στα ανακτημένα περιεχόμενα, θα αποφύγει ψευδαισθήσεις και θα παράγει τυποποιημένη έξοδο.


1. Βασικές αρχές βελτιστοποίησης προτροπής

  1. Σαφήνεια > Πολυπλοκότητα: Οι απλές, άμεσες οδηγίες είναι συχνά πιο αποτελεσματικές από περίπλοκες αλυσίδες σκέψης.
  2. Δώστε αρκετούς περιορισμούς: Πείτε ξεκάθαρα στο μοντέλο «τι μπορεί και τι δεν μπορεί να κάνει».
  3. Παράσχετε παραδείγματα: Το Few-shot είναι πιο σταθερό από το Zero-shot.
  4. Επαληθεύσιμο: Ζητήστε από το μοντέλο να αναφέρει πηγές ή βαθμό εμπιστοσύνης για ευκολότερο downstream έλεγχο.
  5. Επαναληπτική βελτιστοποίηση: Ξεκινήστε από μια βασική γραμμή, αλλάξτε μόνο μία μεταβλητή κάθε φορά και συγκρίνετε αποτελέσματα.

2. Συγκεκριμένες τεχνικές βελτιστοποίησης (από εύκολο σε δύσκολο)

1. Καθορισμός ρόλου (System Prompt)

Είστε ένας επαγγελματίας βοηθός εξυπηρέτησης πελατών. Μπορείτε να απαντάτε μόνο βάσει των παρακάτω 【Πηγών Αναφοράς】.
Αν δεν γνωρίζετε την απάντηση, πείτε ευθέως «δεν υπάρχουν σχετικές πληροφορίες στις πηγές», μην επινοείτε.
  • Αποτέλεσμα: Καθορίζει όρια και ύφος.
  • Σημείο βελτιστοποίησης: Ύφος (επαγγελματικό/φιλικό), αυστηρότητα περιορισμών (αυστηρή/χαλαρή).

2. Σαφείς οδηγίες

❌ Κακή: «Απάντησε στην ερώτηση του χρήστη.»
✅ Καλή: «Βασιζόμενος μόνο στις παρακάτω 【Πηγές Αναφοράς】 απάντησε. Αν οι πηγές δεν περιέχουν την απάντηση, πες ‘Δεν μπορώ να απαντήσω σε αυτή την ερώτηση’.”

3. Έλεγχος μορφής εξόδου

Παρακαλώ εξάγετε σε μορφή JSON:
{
  "answer": "Η απάντησή σας",
  "confidence": "Υψηλή/Μεσαία/Χαμηλή",
  "sources": [1, 3]
}
  • Χρήση: Διευκολύνει την downstream ανάλυση, παραπομπές και αποσφαλμάτωση.

4. Παραδείγματα Few-shot (πολύ αποτελεσματικά)

Παράδειγμα 1:
Ερώτηση: Πόσες ημέρες άδειας έχω;
Πηγές: Κανόνες αδείας: 5 ημέρες για 1 έτος, 10 ημέρες για 10 έτη.
Απάντηση: 5 ημέρες για 1 έτος, 10 ημέρες για 10 έτη.

Παράδειγμα 2:
Ερώτηση: Πώς υπολογίζονται οι υπερωρίες;
Πηγές: Υπερωρία καθημερινής 1.5x, Σαββατοκύριακο 2x.
Απάντηση: 1.5x για καθημερινή, 2x για Σαββατοκύριακο.

Τώρα απάντησε:
Ερώτηση: {ερώτηση χρήστη}
Πηγές: {ανακτημένο περιεχόμενο}
Απάντηση:
  • Τεχνική: Τα παραδείγματα να καλύπτουν διαφορετικά επίπεδα δυσκολίας, καλό να περιλαμβάνουν και ένα παράδειγμα «δεν μπορώ να απαντήσω».

5. Υποχρεωτικές παραπομπές

Στο τέλος της απάντησης, σημειώστε τον αριθμό πηγής με [citation:X]. Π.χ.: «Η άδεια είναι 5 ημέρες[citation:1]».
Αν συνδυάζετε πολλαπλές πηγές, σημειώστε ξεχωριστά.

6. Ορισμός ορίου άρνησης

  • Αυστηρός περιορισμός: «Αν οι πηγές είναι εντελώς άσχετες με την ερώτηση, απάντησε ‘οι πηγές δεν είναι σχετικές’.»
  • Μαλακός περιορισμός: Συνδυάζοντας βαθμό εμπιστοσύνης ανάκτησης, όταν είναι κάτω από όριο, ενεργοποιείται αυτόματο μονοπάτι άρνησης.

7. Αλυσίδα σκέψης (Chain-of-Thought) για πολυβηματικό συλλογισμό

Ερώτηση: Ποιος είναι το αφεντικό του Γιάννη;
Βήματα: 1. Βρες το τμήμα του Γιάννη. 2. Βρες τον υπεύθυνο του τμήματος. 3. Δώσε τελική απάντηση.
Σκέψου βήμα-βήμα και μετά εξήγαγε.

8. Αρνητική προτροπή (Negative Prompting)

Μην επινοείς απαντήσεις. Μη χρησιμοποιείς ασαφείς λέξεις όπως «ίσως», «πιθανά». Μην εξάγεις κανέναν αριθμό που δεν υπάρχει στις πηγές.

3. Πώς να αξιολογήσετε την ποιότητα του Prompt;

Δείκτης Σημασία Πώς μετριέται
Πιστότητα Η απάντηση βασίζεται αυστηρά στις πηγές Χειροκίνητα ή με RAGAS Faithfulness
Ακρίβεια άρνησης Αρνείται όταν πρέπει Υπολογίζεται σε σύνολο δοκιμών χωρίς απάντηση
Συμμόρφωση μορφής Εξάγει JSON/παραπομπές όπως ζητήθηκε Αντιστοίχιση με regex
Ικανοποίηση χρήστη Η απάντηση είναι χρήσιμη Online feedback / A/B testing

Πρόταση: Ετοιμάστε ένα μικρό σύνολο δοκιμών (20-50 ακραίες περιπτώσεις), τρέξτε το μετά από κάθε αλλαγή prompt και καταγράψτε αλλαγές.

4. Συνηθισμένες παγίδες και κατευθύνσεις βελτιστοποίησης

Πρόβλημα Πιθανή αιτία Μέθοδος βελτιστοποίησης
Το μοντέλο αγνοεί τις πηγές και απαντά μόνο του Οι οδηγίες δεν είναι αρκετά επιτακτικές Αλλάξτε σε «Βασιζόμενος μόνο στα παρακάτω» και δείξτε few-shot άρνηση
Το μοντέλο λέει πάντα «δεν ξέρω» Υπερβολικά υψηλό όριο άρνησης Μειώστε το όριο ή ελέγξτε την ποιότητα ανάκτησης
Η μορφή εξόδου είναι ακατάστατη, όχι JSON Ασαφής οδηγία Προσθέστε αυστηρό παράδειγμα μορφής ή χρησιμοποιήστε function calling
Απάντηση πολύ μεγάλη/μικρή Δεν καθορίστηκε μήκος «Απάντησε σε όχι περισσότερες από 3 προτάσεις»
Σφάλμα σε πολυβηματικό συλλογισμό Ανεπαρκής ικανότητα συλλογισμού μοντέλου Ζητήστε σταδιακή σκέψη ή αλλάξτε σε ισχυρότερο μοντέλο
Αριθμοί/ημερομηνίες ψευδαίσθησης Το μοντέλο βασίζεται σε δικές του γνώσεις Τονίστε: «Μη χρησιμοποιείς κανέναν αριθμό από τη μνήμη σου, δες μόνο τις πηγές»

评论

暂无已展示的评论。

发表评论(匿名)