聊天模型 是使用一系列消息作为输入并返回消息作为输出的语言模型

精选提供商

虽然所有这些 LangChain 类都支持指示的高级功能,但您可能需要打开特定提供商的文档以了解哪些托管模型或后端支持该功能。

Chat Completions API

某些模型提供商提供与 OpenAI 的 Chat Completions API 兼容的端点。在这种情况下,您可以使用带有自定义 base_urlChatOpenAI 连接到这些端点。
To use OpenRouter, you will need to sign up for an account and obtain an API key.
from langchain_openai import ChatOpenAI

model = ChatOpenAI(
    model="...",  # Specify a model available on OpenRouter
    api_key="OPENROUTER_API_KEY",
    base_url="https://openrouter.ai/api/v1",
)
有关更多详细信息,请参阅 OpenRouter 文档
要捕获推理 token
  1. 将导入从 langchain_openai 切换到 langchain_deepseek
  2. 使用 ChatDeepSeek 而不是 ChatOpenAI。您需要将参数 base_url 更改为 api_base
  3. 根据需要调整 extra_body 下的推理参数,例如:
model = ChatDeepSeek(
    model="...",
    api_key="...",
    api_base="https://openrouter.ai/api/v1",
    extra_body={"reasoning": {"enabled": True}},
)
这是 ChatOpenAI 的一个已知限制,将在未来的版本中解决。

所有聊天模型

Abso

AI21 Labs

AI/ML API

Alibaba Cloud PAI EAS

Anthropic

AzureAIChatCompletionsModel

Azure OpenAI

Azure ML Endpoint

Baichuan Chat

Baidu Qianfan

Baseten

AWS Bedrock

Cerebras

CloudflareWorkersAI

Cohere

ContextualAI

Coze Chat

Dappier AI

Databricks

DeepInfra

DeepSeek

Eden AI

EverlyAI

Featherless AI

Fireworks

ChatFriendli

Goodfire

Google Gemini

Google Cloud Vertex AI

GPTRouter

DigitalOcean Gradient

GreenNode

Groq

ChatHuggingFace

IBM watsonx.ai

JinaChat

Kinetica

Konko

LiteLLM

Llama 2 Chat

Llama API

LlamaEdge

Llama.cpp

maritalk

MiniMax

MistralAI

MLX

ModelScope

Moonshot

Naver

Nebius

Netmind

NVIDIA AI Endpoints

ChatOCIModelDeployment

OCIGenAI

ChatOctoAI

Ollama

OpenAI

Outlines

Perplexity

Pipeshift

ChatPredictionGuard

PremAI

PromptLayer ChatOpenAI

Qwen QwQ

Qwen

Reka

RunPod Chat Model

SambaNova

ChatSeekrFlow

Snowflake Cortex

SparkLLM Chat

Nebula (Symbl.ai)

Tencent Hunyuan

Together

Tongyi Qwen

Upstage

vLLM Chat

Volc Engine Maas

ChatWriter

xAI

Xinference

YandexGPT

ChatYI

Yuan2.0

ZHIPU AI

如果您想贡献一个集成,请参阅贡献集成

Connect these docs programmatically to Claude, VSCode, and more via MCP for real-time answers.