2025-12-19
LangChain
0

RAG(Retrieval-Augmented Generation,检索增强生成)是当前大模型应用中最常见、也最容易落地的一种架构。

简单来说:

在模型回答问题之前,先从你的知识库中找出相关内容,再把这些内容一并交给模型生成答案。

这一篇将基于一个最小可用、但工程上完整的 RAG 流程,从零梳理:

  • 文档是如何被加载为 LangChain 能理解的 Document
  • 文档是如何被切分
  • 向量是如何存储与检索的
  • 检索结果如何被压缩 / 重排序
  • 最终如何接入到 LLM 调用中
2025-12-19
LangChain
0

LangChain 管道是一个 由多个可运行组件(Runnable)组成的流水线 ,数据从左到右依次流动,每个组件处理后传递给下一个。

在上一篇中,我们已经通过:

python
Prompt | LLM | OutputParser

完成了一个最小可用的 LangChain 调用流程。 从这一行代码开始,LangChain 实际上已经引入了一个非常核心的抽象:Runnable(可执行管道)。 这一篇将围绕 Runnable 的实际使用方式 展开,重点放在:

  • 常见 Runnable 类型的用法
  • 如何自己封装 RunnableLambda
  • 如何构建分支(RunnableBranch)与并行(RunnableParallel)管道
2025-12-19
LangChain
0

这篇文章涵盖 LangChain 的核心技术点,包括:

  • Prompt 模板构建(PromptTemplate / ChatPromptTemplate)
  • 大模型调用(LLM)
  • 输出解析(StrOutputParser / 自定义解析器)
  • 链组合(Chain)

通过一个完整示例,你可以实现从基础问答到多轮智能对话的应用。

2025-12-18
修行札记
0

很多时候,写代码并不是为了尽快得到一个结果,而是在不断尝试与推翻的过程中,逐渐形成对问题本身的理解。真正耗费时间的,往往不是把代码写出来,而是弄清楚为什么要这样写,以及还有没有更合适的选择。