趋近智
尽管LangChain提供了诸如LLMChain和SequentialChain等几种有用的预设链,但你经常会遇到应用程序需要更符合需求的系列操作或连接组件的特定逻辑的情况。此时,构建自定义链就变得必要。你可能需要:
在现代LangChain中,构建自定义链最灵活和推荐的方式是使用LangChain表达式语言(LCEL)。LCEL提供了一种声明式方法,通过反映数据流的语法将不同组件组合起来。
LCEL围绕Runnable协议构建。大多数LangChain组件,例如LLM封装器、提示模板和输出解析器,都实现了此协议。LCEL中的基本操作是通过管道(|)将组件连接起来。当你将组件A通过管道输入到组件B(A | B)时,A的输出会自动作为B的输入传递。
让我们用一个建立在第四章原理之上的简单例子来说明。假设我们想要一个链,它接收一个主题,生成一个关于该主题的技术问题,然后使用另一次LLM调用对生成的那个问题提供简洁的回答。
from langchain_openai import ChatOpenAI
from langchain_core.prompts import ChatPromptTemplate
from langchain_core.output_parsers import StrOutputParser
from langchain_core.runnables import RunnablePassthrough
# 假设OPENAI_API_KEY已在环境变量中设置
# 初始化模型
model = ChatOpenAI(model="gpt-3.5-turbo")
qa_model = ChatOpenAI(model="gpt-4") # 使用可能更强大的模型进行问答
# 1. 生成问题的提示
prompt_generate_question = ChatPromptTemplate.from_template(
"生成一个关于主题的简洁技术问题:{topic}"
)
# 2. 回答生成问题的提示
prompt_answer_question = ChatPromptTemplate.from_template(
"请对以下问题提供简明清晰的回答:\n"
"问题:{generated_question}\n"
"回答:"
)
# 3. 使用LCEL定义自定义链
# 第二个提示需要原始主题和生成的问题。
# RunnablePassthrough会将输入{'topic': '...'}传递下去。
# RunnableParallel会执行分支并将结果收集到字典中。
chain = (
{"generated_question": prompt_generate_question | model | StrOutputParser(),
"topic": RunnablePassthrough()} # 传递原始主题
| prompt_answer_question
| qa_model
| StrOutputParser()
)
# 链的输入
topic_input = {"topic": "vector databases"}
# 调用链
result = chain.invoke(topic_input)
print(f"Topic: {topic_input['topic']}")
# 示例输出(会有所不同):
# 生成的问题(中间结果,非链直接输出):向量数据库用于相似性搜索的主要机制是什么?
print(f"Generated Answer:\n{result}")
# 示例输出(会有所不同):
# 生成的回答:
# 向量数据库用于相似性搜索的主要机制是近似最近邻(ANN)算法。这些算法能高效地在高维空间中找到与给定查询向量最接近(最相似)的向量,而无需将查询与数据库中的每个向量进行比较。
在这个例子中:
RunnableParallel(由字典结构{...}表示)来运行两个分支:
prompt_generate_question | model | StrOutputParser())基于输入topic生成问题。RunnablePassthrough())简单地将原始输入字典(包含topic)传递下去。{'generated_question': '...', 'topic': '...'}。|)传入prompt_answer_question,它使用这两个键。qa_model,其输出由StrOutputParser解析。使用LCEL结合问题生成和回答的自定义链的数据流。
LCEL链不限于LangChain组件。你可以整合你自己的Python函数。LangChain会自动将LCEL序列中传递的标准Python函数封装成RunnableLambda。
让我们对之前的例子稍作修改。假设在生成问题后,我们想在将其传递给回答提示之前,使用一个Python函数添加一个自定义前缀。
# ... (导入和模型定义保持不变) ...
# 自定义Python函数
def add_question_prefix(question_text):
print(f"--- Applying custom prefix ---") # 仅作演示
return f"Technical Query: {question_text}"
# 使用自定义函数定义链
chain_with_custom_func = (
{"intermediate_question": prompt_generate_question | model | StrOutputParser(),
"topic": RunnablePassthrough()}
| RunnableParallel(
generated_question=lambda x: add_question_prefix(x["intermediate_question"]), # 应用函数
topic=lambda x: x["topic"] # 传递主题
)
| prompt_answer_question # 期望输入'generated_question'和'topic'
| qa_model
| StrOutputParser()
)
# 调用修改后的链
result_custom = chain_with_custom_func.invoke(topic_input)
print(f"Topic: {topic_input['topic']}")
# 示例输出(会有所不同):
# --- Applying custom prefix ---
print(f"Generated Answer (with custom func):\n{result_custom}")
# 示例输出(会有所不同):
# 生成的回答(带自定义函数):
# 向量数据库用于相似性搜索的主要机制是近似最近邻(ANN)算法。这些算法能高效地在高维空间中找到与给定查询向量最接近(最相似)的向量,通常使用哈希或基于图的索引等技术,而无需穷尽地与每个条目进行比较。
在这里,我们在RunnableParallel中使用了一个lambda函数来调用add_question_prefix函数。LangChain在后台处理将其封装成RunnableLambda,使得整合过程很流畅。
Chain在LCEL成为标准之前,创建自定义链的主要方式是继承langchain.chains.base.Chain。这包括:
input_keys(一个预期输入变量名的列表)。output_keys(一个链将输出的变量名列表)。_call方法,它包含链的核心逻辑,接收输入并返回一个输出字典。尽管仍然可用,但对于大多数常见的工作流模式而言,继承通常比使用LCEL更冗长且组合性更差。对于需要复杂内部状态管理或其逻辑不易被LCEL轻松建模为顺序或并行流的链,它可能仍然可以考虑。然而,对于构建大多数自定义工作流,LCEL提供了一种更优雅且易于维护的解决方案。
构建自定义链,特别是使用LCEL,使你能够对LLM工作流进行细致控制,从而构建精确满足需求的复杂应用程序。这种可组合性是突破简单提示-响应交互时的一个显著优势。
简洁的语法。内置调试功能。从第一天起就可投入生产。
为 ApX 背后的 AI 系统而构建
这部分内容有帮助吗?
Runnable 协议以及组合自定义 LLM 链的方法。© 2026 ApX Machine Learning用心打造