← 返回列表

AI系列面试8:什么是RAG?为什么想到做 RAG 项目?

什么是RAG?

RAG 的全称是 Retrieval-Augmented Generation,中文意为检索增强生成

简单来说,它是一种给大语言模型“配上一本可以随时翻阅的参考书”的技术。

你可以把大语言模型想象成一个记忆力超群、知识渊博的“超级学霸”。但这个学霸有两个天生的“缺陷”:

  1. 知识截止日期:他学到的知识只截止于训练时的数据。2023年之后发生的事情,他一无所知。
  2. 可能“胡编乱造”:当遇到他不知道的问题时,他不会说“我不知道”,而是会凭想象力“编造”一个听起来合理的答案(这就是AI幻觉)。

RAG 就是来解决这两个问题的。它的工作流程很简单,分三步:

  1. 检索:当你问一个问题时,系统会先去一个“外部知识库”(比如你公司的所有文档、最新的维基百科、或者一堆法律条文)里,快速搜索并找出最相关的几段信息。这就像让学生先针对问题去翻书查找。
  2. 增强:系统把“你问的问题”和“检索到的相关段落”打包在一起,形成一个“增强版”的提示词。这就像给了学生一份参考资料。
  3. 生成:大语言模型基于这个“增强版”提示词来生成最终答案。它不再只依赖自己“记忆”中的旧知识,而是主要参考你提供的“参考资料”来回答。这就像学生看着书本资料回答问题,而不是空想。

一个简单的类比:
- 传统LLM:“如何修理我的XX型号自行车?” → 模型凭记忆回答,可能过时或错误。
- RAG:“如何修理我的XX型号自行车?” → 先检索最新的官方维修手册 → 再生成:“根据2024版维修手册第3章,你应该先……”


为什么想到做 RAG 项目?

做RAG项目,本质上是为了扬长避短,释放大语言模型的真正潜力。主要有以下几个核心驱动力:

  1. 解决“知识过时”和“幻觉”问题

    • 动机:想让LLM回答关于最新事件、内部数据、私有文档的问题,同时确保答案有据可查。
    • 价值:一个能做RAG的医疗问答系统,可以引用最新医学期刊回答“新冠最新变异株的症状”,而不是给出2021年的过时信息,并附上引文来源,大大降低了“信口开河”的风险。
  2. 让AI能处理“私有数据”,同时保证安全

    • 动机:每家公司都有自己的知识库(合同、代码、客服记录等)。这些数据不能拿去重新训练或微调模型(成本高、技术难、有数据泄露风险)。
    • 价值:通过RAG,你可以构建一个公司内部的“AI问答助手”。员工提问后,AI会从公司内部的私有文档中检索相关信息来回答。私有数据始终保存在公司内部,不会被发送给模型厂商用于训练,既利用了LLM的理解能力,又保证了数据安全。
  3. 降低成本,提升效率

    • 动机:重新训练或微调一个大模型来吸收新知识,就像把整个图书馆再学一遍,需要巨额算力和成本。
    • 价值:RAG几乎不需要训练,只需要搭建检索系统。成本可能就是微调的1%,甚至更低。而且知识库更新了,检索结果自然就更新了,无需重新训练模型,做到了“实时更新”。
  4. 让AI“知之为知之,不知为不知”

    • 动机:希望模型能对自己的知识边界有清晰的认知。
    • 价值:RAG的系统可以设定一个规则:如果检索不到相关文档,就直接回答“对不起,我没有在知识库中找到相关的信息,请您确认问题。”这种“引用失败”的机制,让AI的运作方式更加可靠和透明。

总结一下:

想到做RAG项目,是因为我们既想要大语言模型强大的理解和表达能力,又想让它变得“诚实、可靠、与时俱进、懂私有业务”。它就像给超级引擎(LLM)装上了精准可控的方向盘和实时更新的导航地图(检索系统),是目前让LLM真正落地到企业、医疗、法律、金融等严肃领域的最有效、最主流的技术路径之一。

评论

暂无已展示的评论。

发表评论(匿名)