createAgent() 提供生产就绪的智能体实现。
LLM 智能体在循环中运行工具以实现目标。
智能体运行直到满足停止条件 - 即当模型发出最终输出或达到迭代限制时。
核心组件
模型
模型是您的智能体的推理引擎。它可以通过多种方式指定,支持静态和动态模型选择。静态模型
静态模型在创建智能体时配置一次,并在整个执行过程中保持不变。这是最常见和最直接的方法。 从初始化静态模型:provider:model(例如 "openai:gpt-5")。如果您想对模型配置有更多控制,可以直接使用提供商包初始化模型实例:
temperature、max_tokens、timeouts)或配置 API 密钥、base_url 和其他提供商特定设置时使用它们。请参阅 API 参考文档 以查看模型上可用的参数和方法。
动态模型
动态模型根据当前和上下文在选择。这实现了复杂的路由逻辑和成本优化。 要使用动态模型,请使用wrapModelCall 创建中间件,该中间件修改请求中的模型:
工具
工具使智能体能够执行操作。智能体通过以下方式超越了简单的仅模型工具绑定:- 按顺序进行多个工具调用(由单个提示触发)
- 在适当时进行并行工具调用
- 基于先前结果的动态工具选择
- 工具重试逻辑和错误处理
- 跨工具调用的状态持久化
定义工具
向智能体传递工具列表。工具错误处理
要自定义工具错误的处理方式,请在自定义中间件中使用wrapToolCall 钩子:
ToolMessage]。
ReAct 循环中的工具使用
智能体遵循 ReAct(“推理 + 行动”)模式,在简短的推理步骤与有针对性的工具调用之间交替,并将观察结果反馈到后续决策中,直到能够提供最终答案。ReAct 循环示例
ReAct 循环示例
提示:识别当前最受欢迎的无线耳机并验证可用性。
- 推理:“受欢迎程度是时间敏感的,我需要使用提供的搜索工具。”
- 行动:调用
search_products("wireless headphones")
- 推理:“我需要在回答之前确认排名第一的商品的可用性。”
- 行动:调用
check_inventory("WH-1000XM5")
- 推理:“我有了最受欢迎的型号及其库存状态。我现在可以回答用户的问题了。”
- 行动:产生最终答案
系统提示
您可以通过提供提示来塑造智能体处理任务的方式。systemPrompt 参数可以作为字符串提供:
system_prompt] 时,智能体将直接从消息中推断其任务。
动态系统提示
对于需要根据运行时上下文或智能体状态修改系统提示的更高级用例,您可以使用中间件。调用
您可以通过向其State 传递更新来调用智能体。所有智能体在其状态中都包含消息序列;要调用智能体,请传递新消息:
高级概念
结构化输出
在某些情况下,您可能希望智能体以特定格式返回输出。LangChain 通过responseFormat 参数提供了一种简单、通用的方法来实现这一点。
记忆
智能体通过消息状态自动维护对话历史。您还可以配置智能体使用自定义状态模式来记住对话过程中的其他信息。 存储在状态中的信息可以视为智能体的短期记忆:流式传输
我们已经看到如何使用invoke 调用智能体以获得最终响应。如果智能体执行多个步骤,这可能需要一段时间。为了显示中间进度,我们可以在消息发生时流式传输它们。
中间件
中间件 提供了强大的扩展性,用于在执行的不同阶段自定义智能体行为。您可以使用中间件来:- 在调用模型之前处理状态(例如,消息修剪、上下文注入)
- 修改或验证模型的响应(例如,护栏、内容过滤)
- 使用自定义逻辑处理工具执行错误
- 基于状态或上下文实现动态模型选择
- 添加自定义日志记录、监控或分析