AI ซีรีส์สัมภาษณ์ 8: RAG คืออะไร? เหตุใดจึงคิดที่จะทำโปรเจกต์ RAG?
RAG คืออะไร?
RAG ย่อมาจาก Retrieval-Augmented Generation หรือในภาษาไทยคือ การสร้างแบบเสริมการค้นคืน
พูดง่ายๆ มันคือเทคโนโลยีที่ "ทำให้โมเดลภาษาขนาดใหญ่มีหนังสืออ้างอิงที่สามารถเปิดอ่านได้ตลอดเวลา"
ลองนึกภาพโมเดลภาษาขนาดใหญ่เป็น "ซูเปอร์เกรียน" ที่มีความจำดีเยี่ยมและความรู้กว้างขวาง แต่เกรียนคนนี้มี ข้อบกพร่อง โดยธรรมชาติสองอย่าง:
- วันหมดอายุของความรู้: ความรู้ที่เขาเรียนรู้มีเพียงข้อมูลที่ถูกฝึกมาเท่านั้น สิ่งที่เกิดขึ้นหลังปี 2023 เขาไม่รู้อะไรเลย
- อาจ "มั่ว": เมื่อเจอคำถามที่ไม่รู้ เขาจะไม่พูดว่า "ไม่รู้" แต่จะจินตนาการ "มั่ว" คำตอบที่ฟังดูสมเหตุสมผลขึ้นมา (นี่คืออาการประสาทหลอนของ AI)
RAG ถูกสร้างมาเพื่อแก้ปัญหาสองข้อนี้ กระบวนการทำงานง่ายๆ แบ่งเป็นสามขั้นตอน:
- การค้นคืน: เมื่อคุณถามคำถาม ระบบจะไปที่ "ฐานความรู้ภายนอก" (เช่น เอกสารทั้งหมดในบริษัทของคุณ, วิกิพีเดียล่าสุด, หรือข้อกฎหมายต่างๆ) ค้นหาอย่างรวดเร็วและดึงข้อมูลที่เกี่ยวข้องที่สุดสองสามย่อหน้า เหมือนกับให้นักเรียนค้นหาคำตอบจากหนังสือ
- การเสริม: ระบบนำ "คำถามของคุณ" และ "ย่อหน้าที่เกี่ยวข้องที่ค้นคืนมา" มารวมกันเป็นพรอมต์ที่ถูกเสริม เหมือนกับการให้เอกสารอ้างอิงกับนักเรียน
- การสร้าง: โมเดลภาษาขนาดใหญ่สร้างคำตอบสุดท้ายจากพรอมต์ที่ถูกเสริมนี้ มันจะไม่พึ่งพาความรู้เก่าใน "ความจำ" ของมันอีกต่อไป แต่จะอ้างอิง "เอกสารอ้างอิง" ที่คุณให้มาเป็นหลักในการตอบ เหมือนกับนักเรียนตอบคำถามโดยดูจากหนังสือ ไม่ใช่การเดา
อุปมาอุปมัยง่ายๆ:
- LLM แบบดั้งเดิม: "ซ่อมจักรยานรุ่น XX ของฉันยังไง?" → โมเดลตอบจากความจำ อาจล้าสมัยหรือผิด
- RAG: "ซ่อมจักรยานรุ่น XX ของฉันยังไง?" → ค้นคืน คู่มือซ่อมล่าสุด → สร้าง: "ตามคู่มือซ่อมฉบับปี 2024 บทที่ 3 คุณควร..."
เหตุใดจึงคิดที่จะทำโปรเจกต์ RAG?
การทำโปรเจกต์ RAG โดยพื้นฐานแล้วคือการ ใช้จุดแข็งและหลีกเลี่ยงจุดอ่อน เพื่อปลดปล่อยศักยภาพที่แท้จริงของโมเดลภาษาขนาดใหญ่ แรงขับเคลื่อนหลักมีดังนี้:
-
แก้ปัญหา "ความรู้ล้าสมัย" และ "ภาพหลอน"
- แรงจูงใจ: ต้องการให้ LLM ตอบคำถามเกี่ยวกับเหตุการณ์ล่าสุด, ข้อมูลภายใน, เอกสารส่วนตัว พร้อมทั้งมั่นใจว่าคำตอบมีหลักฐานอ้างอิง
- คุณค่า: ระบบถามตอบทางการแพทย์ที่ใช้ RAG สามารถอ้างอิงวารสารการแพทย์ล่าสุดเพื่อตอบ "อาการของสายพันธุ์ใหม่ของโควิด" แทนที่จะให้ข้อมูลเก่าจากปี 2021 พร้อมระบุแหล่งที่มา ลดความเสี่ยงในการ "พูดมั่ว" ได้มาก
-
ให้ AI จัดการ "ข้อมูลส่วนตัว" ได้ พร้อมรักษาความปลอดภัย
- แรงจูงใจ: ทุกบริษัทมีฐานความรู้ของตัวเอง (สัญญา, โค้ด, บันทึกการบริการลูกค้า ฯลฯ) ข้อมูลเหล่านี้ไม่สามารถนำไปฝึกหรือปรับแต่งโมเดลใหม่ได้ (ต้นทุนสูง, เทคโนโลยียาก, เสี่ยงข้อมูลรั่วไหล)
- คุณค่า: ด้วย RAG คุณสามารถสร้าง "ผู้ช่วยถามตอบ AI" ภายในบริษัทได้ เมื่อพนักงานถาม AI จะค้นคืนข้อมูลจากเอกสารภายในบริษัทเพื่อตอบ ข้อมูลส่วนตัวจะถูกเก็บไว้ภายในบริษัทเสมอ ไม่ถูกส่งไปยังผู้ผลิตโมเดลเพื่อฝึก ทำให้ใช้ความสามารถในการเข้าใจของ LLM ได้ พร้อมรักษาความปลอดภัยของข้อมูล
-
ลดต้นทุน เพิ่มประสิทธิภาพ
- แรงจูงใจ: การฝึกหรือปรับแต่งโมเดลขนาดใหญ่เพื่อดูดซับความรู้ใหม่ เหมือนกับการเรียนทั้งห้องสมุดอีกครั้ง ต้องใช้พลังการคำนวณมหาศาลและต้นทุนสูง
- คุณค่า: RAG แทบไม่ต้องฝึกเลย แค่สร้างระบบค้นคืน ต้นทุนอาจเป็นแค่ 1% ของการปรับแต่ง หรือน้อยกว่านั้นด้วยซ้ำ และเมื่อฐานความรู้ถูกอัปเดต ผลการค้นคืนก็จะอัปเดตตามโดยอัตโนมัติ โดยไม่ต้องฝึกโมเดลใหม่ ทำให้ "อัปเดตแบบเรียลไทม์"
-
ทำให้ AI "รู้ว่าตนรู้หรือไม่รู้"
- แรงจูงใจ: ต้องการให้โมเดลตระหนักถึงขอบเขตความรู้ของตนเองอย่างชัดเจน
- คุณค่า: ระบบ RAG สามารถตั้งกฎได้ว่า: หากค้นคืนไม่พบเอกสารที่เกี่ยวข้อง ให้ตอบทันทีว่า "ขออภัย ฉันไม่พบข้อมูลที่เกี่ยวข้องในฐานความรู้ กรุณาตรวจสอบคำถามอีกครั้ง" กลไก "การอ้างอิงล้มเหลว" นี้ ทำให้การทำงานของ AI เชื่อถือได้และโปร่งใสมากขึ้น
สรุป:
การคิดที่จะทำโปรเจกต์ RAG เพราะเรา ต้องการทั้งความสามารถในการเข้าใจและแสดงออกอันทรงพลังของโมเดลภาษาขนาดใหญ่ และต้องการให้มัน 'ซื่อสัตย์, เชื่อถือได้, ทันสมัย, เข้าใจธุรกิจส่วนตัว' มันเหมือนกับการติดตั้งพวงมาลัยที่แม่นยำและแผนที่นำทางที่อัปเดตตลอดเวลา (ระบบค้นคืน) ให้กับเครื่องยนต์สุดแกร่ง (LLM) และเป็นหนึ่งในเทคโนโลยีที่มีประสิทธิภาพและเป็นที่นิยมมากที่สุดในการนำ LLM ไปใช้งานจริงในแวดวงที่จริงจัง เช่น ธุรกิจ, การแพทย์, กฎหมาย, การเงิน ฯลฯ
评论
暂无已展示的评论。
发表评论(匿名)