← 返回列表

Phỏng vấn AI Series 8: RAG là gì? Tại sao lại nghĩ đến việc thực hiện dự án RAG?

RAG là gì?

RAG là viết tắt của Retrieval-Augmented Generation, nghĩa là Tạo sinh tăng cường truy xuất.

Nói đơn giản, nó là kỹ thuật "trang bị cho mô hình ngôn ngữ lớn một cuốn sách tham khảo có thể tra cứu bất cứ lúc nào".

Bạn có thể hình dung mô hình ngôn ngữ lớn như một "siêu học sinh" có trí nhớ siêu việt, kiến thức uyên bác. Nhưng siêu học sinh này có hai "khiếm khuyết" bẩm sinh:

  1. Hạn chế về thời gian kiến thức: Kiến thức của cậu ấy chỉ giới hạn ở dữ liệu khi huấn luyện. Những sự kiện xảy ra sau năm 2023, cậu ấy hoàn toàn không biết.
  2. Có thể "bịa đặt": Khi gặp câu hỏi không biết, cậu ấy sẽ không nói "tôi không biết", mà sẽ "bịa" ra một câu trả lời nghe có vẻ hợp lý (đây là ảo giác AI).

RAG ra đời để giải quyết hai vấn đề này. Quy trình làm việc của nó rất đơn giản, gồm ba bước:

  1. Truy xuất: Khi bạn đặt câu hỏi, hệ thống sẽ đến một "kho kiến thức bên ngoài" (ví dụ: tất cả tài liệu của công ty bạn, Wikipedia mới nhất, hoặc một loạt điều luật) và nhanh chóng tìm kiếm, lấy ra những đoạn thông tin liên quan nhất. Giống như để học sinh tra sách theo câu hỏi.
  2. Tăng cường: Hệ thống đóng gói "câu hỏi của bạn" và "các đoạn liên quan tìm được" thành một prompt "tăng cường". Giống như đưa cho học sinh một tài liệu tham khảo.
  3. Tạo sinh: Mô hình ngôn ngữ lớn dựa trên prompt "tăng cường" này để tạo ra câu trả lời cuối cùng. Nó không còn chỉ dựa vào kiến thức cũ trong "bộ nhớ" nữa, mà chủ yếu tham khảo "tài liệu tham khảo" bạn cung cấp để trả lời. Giống như học sinh nhìn vào sách vở để trả lời câu hỏi, chứ không phải tưởng tượng.

Một phép so sánh đơn giản:
- LLM truyền thống: "Làm thế nào để sửa xe đạp model XX của tôi?" → Mô hình trả lời theo trí nhớ, có thể lỗi thời hoặc sai.
- RAG: "Làm thế nào để sửa xe đạp model XX của tôi?" → Truy xuất trước sổ tay sửa chữa chính thức mới nhất → Sau đó tạo sinh: "Theo chương 3 của sổ tay sửa chữa phiên bản 2024, bạn nên trước tiên..."


Tại sao lại nghĩ đến việc thực hiện dự án RAG?

Thực hiện dự án RAG, về bản chất là để phát huy ưu điểm, khắc phục nhược điểm, giải phóng tiềm năng thực sự của mô hình ngôn ngữ lớn. Dưới đây là một số động lực cốt lõi:

  1. Giải quyết vấn đề "kiến thức lỗi thời" và "ảo giác"

    • Động cơ: Muốn LLM trả lời các câu hỏi về sự kiện mới nhất, dữ liệu nội bộ, tài liệu riêng tư, đồng thời đảm bảo câu trả lời có căn cứ.
    • Giá trị: Một hệ thống tư vấn y tế có RAG có thể trích dẫn các tạp chí y khoa mới nhất để trả lời "Triệu chứng của biến thể mới nhất của COVID", thay vì đưa ra thông tin lỗi thời từ năm 2021, kèm theo nguồn trích dẫn, giảm đáng kể rủi ro "nói bừa".
  2. Cho phép AI xử lý "dữ liệu riêng tư", đồng thời đảm bảo an toàn

    • Động cơ: Mỗi công ty đều có kho kiến thức riêng (hợp đồng, mã nguồn, hồ sơ dịch vụ khách hàng, v.v.). Những dữ liệu này không thể mang đi huấn luyện lại hoặc tinh chỉnh mô hình (chi phí cao, kỹ thuật khó, nguy cơ rò rỉ dữ liệu).
    • Giá trị: Thông qua RAG, bạn có thể xây dựng một "trợ lý hỏi đáp AI" nội bộ trong công ty. Khi nhân viên đặt câu hỏi, AI sẽ truy xuất thông tin liên quan từ các tài liệu riêng tư nội bộ để trả lời. Dữ liệu riêng tư luôn được lưu trữ trong công ty, không bị gửi cho nhà cung cấp mô hình để huấn luyện, vừa tận dụng khả năng hiểu của LLM, vừa đảm bảo an toàn dữ liệu.
  3. Giảm chi phí, nâng cao hiệu quả

    • Động cơ: Huấn luyện lại hoặc tinh chỉnh một mô hình lớn để tiếp thu kiến thức mới giống như học lại toàn bộ thư viện, đòi hỏi sức mạnh tính toán và chi phí khổng lồ.
    • Giá trị: RAG hầu như không cần huấn luyện, chỉ cần xây dựng hệ thống truy xuất. Chi phí có thể chỉ bằng 1% so với tinh chỉnh, thậm chí thấp hơn. Và khi kho kiến thức được cập nhật, kết quả truy xuất tự động cập nhật, không cần huấn luyện lại mô hình, đạt được "cập nhật theo thời gian thực".
  4. Làm cho AI "biết thì nói biết, không biết thì nói không biết"

    • Động cơ: Muốn mô hình có nhận thức rõ ràng về ranh giới kiến thức của mình.
    • Giá trị: Hệ thống RAG có thể đặt ra quy tắc: nếu không truy xuất được tài liệu liên quan, có thể trả lời trực tiếp "Xin lỗi, tôi không tìm thấy thông tin liên quan trong kho kiến thức, vui lòng xác nhận lại câu hỏi." Cơ chế "trích dẫn thất bại" này làm cho cách hoạt động của AI trở nên đáng tin cậy và minh bạch hơn.

Tổng kết lại:

Nghĩ đến việc thực hiện dự án RAG, là vì chúng ta vừa muốn có khả năng hiểu và diễn đạt mạnh mẽ của mô hình ngôn ngữ lớn, vừa muốn nó trở nên "trung thực, đáng tin cậy, theo kịp thời đại, hiểu biết về nghiệp vụ riêng tư". Nó giống như lắp cho một cỗ máy siêu mạnh (LLM) một vô lăng điều khiển chính xác và một bản đồ dẫn đường cập nhật theo thời gian thực (hệ thống truy xuất), là một trong những con đường kỹ thuật hiệu quả và phổ biến nhất hiện nay để đưa LLM ứng dụng thực tế vào các lĩnh vực nghiêm túc như doanh nghiệp, y tế, pháp luật, tài chính.

评论

暂无已展示的评论。

发表评论(匿名)