RAG(Retrieval-Augmented Generation,检索增强生成)是当前大模型应用中最常见、也最容易落地的一种架构。
简单来说:
在模型回答问题之前,先从你的知识库中找出相关内容,再把这些内容一并交给模型生成答案。
这一篇将基于一个最小可用、但工程上完整的 RAG 流程,从零梳理:
DocumentLangChain 管道是一个 由多个可运行组件(Runnable)组成的流水线 ,数据从左到右依次流动,每个组件处理后传递给下一个。
在上一篇中,我们已经通过:
pythonPrompt | LLM | OutputParser
完成了一个最小可用的 LangChain 调用流程。 从这一行代码开始,LangChain 实际上已经引入了一个非常核心的抽象:Runnable(可执行管道)。 这一篇将围绕 Runnable 的实际使用方式 展开,重点放在:
这篇文章涵盖 LangChain 的核心技术点,包括:
通过一个完整示例,你可以实现从基础问答到多轮智能对话的应用。
很多时候,写代码并不是为了尽快得到一个结果,而是在不断尝试与推翻的过程中,逐渐形成对问题本身的理解。真正耗费时间的,往往不是把代码写出来,而是弄清楚为什么要这样写,以及还有没有更合适的选择。