在 LangChain 的语境下,Runnable 是 LCEL 世界里最基本的"积木块" 。它是 LangChain 定义的一整套标准接口(协议),核心思想就一句话:
只要一个对象实现了 Runnable 协议,它就能用 | 管道符和别的组件无缝连接,并且自动获得异步、流式、批处理等能力。
可以把它理解成 Java 里的 Runnable 接口,或者更贴切地说是 TypeScript 里的 interface------它规定了所有组件必须遵守的一套标准动作:
invoke:处理单个输入,返回单个输出(同步)ainvoke:处理单个输入,返回单个输出(异步)batch:处理一批输入,返回一批输出(并行)stream:处理单个输入,以流的方式逐步返回输出astream:流式返回 + 异步- 等等...
为什么需要 Runnable?
你之前写的链里,每个组件(prompt、self._llm、JsonOutputParser)底层都实现了 Runnable 协议。这就像 USB 接口标准一样:
- 如果没有标准:每个设备都有自己的接口,你得用不同的线、不同的驱动才能连起来。
- 有了标准:任何设备只要符合 USB 标准,用同一根线就能连上。
Runnable 就是这个"USB 标准"。正因为它们都实现了同一个协议,所以 LCEL 才能用 | 把它们串起来,并确保数据能在它们之间顺利流通。
代码长什么样?
你不需要自己去实现 Runnable,但了解它的结构能让你理解一切为何能这么运作。它大致长这样:
python
class Runnable(ABC):
@abstractmethod
def invoke(self, input, config=None):
"""处理单个输入,返回输出"""
pass
async def ainvoke(self, input, config=None):
"""异步版 invoke"""
pass
def batch(self, inputs, config=None):
"""批量处理多个输入"""
pass
def stream(self, input, config=None):
"""流式返回"""
pass
# ... 还有其他方法
ChatPromptTemplate、ChatOpenAI、StrOutputParser、JsonOutputParser 这些类都继承并实现了上面这些方法。所以它们都是 Runnable。
Runnable 的核心思想:统一接口 + 能力自动继承
这是 Runnable 最强大的地方。一旦你的链(它本身也是一个 Runnable)拼好之后,不需要额外写一行代码,就能直接调用所有标准方法:
python
chain = prompt | llm | parser # chain 本身也是一个 Runnable
# 所有这些都是开箱即用的,不用你为 chain 单独实现
result = chain.invoke({"topic": "cat"}) # 同步单次
result = await chain.ainvoke({"topic": "cat"}) # 异步单次
results = chain.batch([{"topic": "cat"}, {"topic": "dog"}]) # 批量并行
for chunk in chain.stream({"topic": "cat"}): # 流式输出
print(chunk)
总结一句话:Runnable 就是 LangChain 定义的一套标准积木接口,所有组件都遵循它。LCEL 的 | 管道符只能连接符合这个标准的积木。当它们连成链后,这条链本身也是一块同样标准的积木,从而自动拥有了各种强大的执行能力。