上下文工程是构建动态系统的实践,这些系统以正确的格式提供正确的信息和工具,以便 AI 应用程序可以完成任务。上下文可以沿两个关键维度表征:
  1. 可变性
  • 静态上下文:在执行期间不会更改的不可变数据(例如,用户元数据、数据库连接、工具)
  • 动态上下文:随着应用程序运行而演变的可变数据(例如,对话历史、中间结果、工具调用观察)
  1. 生命周期
  • 运行时上下文:范围限定为单次运行或调用的数据
  • 跨对话上下文:跨多个对话或会话持久化的数据
运行时上下文指的是本地上下文:您的代码运行所需的数据和依赖项。它指:
  • LLM 上下文,即传递到 LLM 提示中的数据。
  • “上下文窗口”,即可以传递给 LLM 的最大令牌数。
运行时上下文可用于优化 LLM 上下文。例如,您可以在运行时上下文中使用用户元数据 来获取用户偏好并将它们馈送到上下文窗口中。
LangGraph 提供三种管理上下文的方法,结合了可变性和生命周期维度:
上下文类型描述可变性生命周期
Config在运行开始时传递的数据静态单次运行
动态运行时上下文(状态)在单次运行期间演变的可变数据动态单次运行
动态跨对话上下文(存储)跨对话共享的持久数据动态跨对话

Config

Config 用于不可变数据,如用户元数据或 API 密钥。当您有在运行中途不会更改的值时使用此方法。 使用名为 “configurable” 的键指定配置,该键为此目的保留。
await graph.invoke(
  { messages: [{ role: "user", content: "hi!" }] },
  { configurable: { user_id: "user_123" } } 
);

动态运行时上下文

动态运行时上下文表示可以在单次运行期间演变的可变数据,并通过 LangGraph 状态对象进行管理。这包括对话历史、中间结果以及从工具或 LLM 输出派生的值。在 LangGraph 中,状态对象在运行期间充当短期内存
  • In an agent
  • In a workflow
示例展示如何将状态纳入智能体提示中。智能体的工具也可以访问状态,这些工具可以根据需要读取或更新状态。有关详细信息,请参阅工具调用指南
import { createAgent, createMiddleware } from "langchain";
import type { AgentState } from "langchain";
import * as z from "zod";

const CustomState = z.object({ 
  userName: z.string(),
});

const personalizedPrompt = createMiddleware({ 
  name: "PersonalizedPrompt",
  stateSchema: CustomState,
  wrapModelCall: (request, handler) => {
    const userName = request.state.userName || "User";
    const systemPrompt = `You are a helpful assistant. User's name is ${userName}`;
    return handler({ ...request, systemPrompt });
  },
});

const agent = createAgent({  
  model: "claude-sonnet-4-5-20250929",
  tools: [/* your tools here */],
  middleware: [personalizedPrompt] as const, 
});

await agent.invoke({
  messages: [{ role: "user", content: "hi!" }],
  userName: "John Smith",
});
启用内存 有关如何启用内存的更多详细信息,请参阅内存指南。这是一个强大的功能,允许您跨多个调用持久化智能体的状态。否则,状态仅范围限定为单次运行。

动态跨对话上下文

动态跨对话上下文表示跨多个对话或会话的持久、可变数据,并通过 LangGraph 存储进行管理。这包括用户配置文件、偏好和历史交互。LangGraph 存储在多次运行中充当长期内存。这可用于读取或更新持久事实(例如,用户配置文件、偏好、先前交互)。

另请参阅


Connect these docs programmatically to Claude, VSCode, and more via MCP for real-time answers.