2026西湖龙井茶官网DTC发售:茶农直供,政府溯源防伪到农户家
第二代:检索增强生成(RAG)—— 基于事实知识的时代(2022–2023)
在第一代人工智能中,模型就像是被关在没有互联网的房间里的聪明学生。他们拥有惊人的推理能力,但他们的知识却冻结在时间里(即他们的“训练数据截止时间”)。如果你询问昨天写的公司备忘录或今天早上的新闻事件,他们要么道歉,要么更糟糕的是,自信地编造出一个答案。
RAG 登场:检索增强生成。
RAG 是一种将大型语言模型(LLM)连接到外部实时数据的架构模式。模型不再仅仅依赖其内部记忆,而是在回答之前“查阅”相关信息。
RAG 的作用是什么?
RAG 将系统连接到实时文档、应用程序编程接口(API)、网络数据和数据库
因此,不再是:答案 = 模型记忆
而是变为:答案 = 检索到的数据 + 模型推理
RAG 使回答建立在检索到的上下文基础上。模型被迫根据实际数据进行回答,从而产生更符合事实的回答,降低幻觉率,并提高对输出结果的信任度。
工作原理:三步流程
要理解 RAG,可以将其想象为一场开卷考试。
- 检索:当你提出问题时,系统不会直接转向人工智能。首先,它会在一个专门的数据库(通常是向量数据库)中搜索与你的查询相关的文档片段。
- 增强:系统获取这些搜索结果,并将它们“填充”到提示词中。它实际上是在对人工智能说:“这是你的问题,这里是三段事实来帮助你回答它。”
- 生成:人工智能阅读提供的上下文,并仅基于这些事实生成回答。
为何这改变了一切
- 几乎零幻觉:通过强制模型引用其来源,我们大幅减少了第一代人工智能中常见的“创造性谎言”。
- 最新数据:你不再需要花费数百万重新训练模型来教它新的事实。你只需更新你的文档库即可。
- 隐私与安全:RAG 允许企业让人工智能与敏感的内部数据进行交互,而无需将这些数据吸收进公共模型的训练集中。
最重要的洞察
RAG 并没有修复模型——它修复了模型周围的系统。
模型仍然是:无状态的、概率性的
但系统现在:为其提供正确的信息
RAG 引入了数据层——这改变了一切
随着 RAG 的出现,开发人员突然承担了一项新的责任:
我们不再痴迷于提示词工程,而是开始专注于数据工程——如何清理、分块、存储和索引信息,以便人工智能能够在正确的时间找到正确的知识片段。
RAG 有效地为人工智能技术栈添加了第四层:
数据层——你的文档、嵌入向量和向量索引存放的地方。
为何这种转变对开发人员和架构师至关重要
RAG 将人工智能系统变成了流水线,而不仅仅是模型
在 RAG 出现之前,一切都围绕免责声明:本文内容来自互联网,该文观点不代表本站观点。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,请到页面底部单击反馈,一经查实,本站将立刻删除。
