LangSmith 提供了与 Instructor 的便捷集成,Instructor 是一个用于使用 LLM 生成结构化输出的流行开源库。 要使用,您首先需要设置 LangSmith API 密钥。
export LANGSMITH_API_KEY=<your-api-key>
# 对于链接到多个工作区的 LangSmith API 密钥,设置 LANGSMITH_WORKSPACE_ID 环境变量以指定要使用的工作区。
export LANGSMITH_WORKSPACE_ID=<your-workspace-id>
接下来,您需要安装 LangSmith SDK:
pip install -U langsmith
使用 langsmith.wrappers.wrap_openai 包装您的 OpenAI 客户端
from openai import OpenAI
from langsmith import wrappers

client = wrappers.wrap_openai(OpenAI())
之后,您可以使用 instructor 修补包装的 OpenAI 客户端:
import instructor

client = instructor.patch(client)
现在,您可以像往常一样使用 instructor,但现在所有内容都会记录到 LangSmith!
from pydantic import BaseModel


class UserDetail(BaseModel):
    name: str
    age: int


user = client.chat.completions.create(
    model="gpt-4o-mini",
    response_model=UserDetail,
    messages=[
        {"role": "user", "content": "Extract Jason is 25 years old"},
    ]
)
通常,您在其他函数内部使用 instructor。 您可以通过使用此包装的客户端并使用 @traceable 装饰这些函数来获得嵌套跟踪。 请参阅本指南以获取有关如何使用 @traceable 装饰器为跟踪注释代码的更多信息。
# You can customize the run name with the `name` keyword argument
@traceable(name="Extract User Details")
def my_function(text: str) -> UserDetail:
    return client.chat.completions.create(
        model="gpt-4o-mini",
        response_model=UserDetail,
        messages=[
            {"role": "user", "content": f"Extract {text}"},
        ]
    )

my_function("Jason is 25 years old")

Connect these docs programmatically to Claude, VSCode, and more via MCP for real-time answers.