Azure Machine Learning 是一个用于构建、训练和部署机器学习模型的平台。用户可以在模型目录中探索要部署的模型类型,该目录提供来自不同提供商的基础和通用模型。 通常,您需要部署模型才能使用其预测(推理)。在本笔记本介绍如何使用托管在Azure Machine Learning中,在线端点 用于通过实时服务部署这些模型。它们基于Endpoints和Deployments的概念,允许您将生产工作负载的接口与为其提供服务的实现解耦。
Azure Machine Learning Endpoint 上的聊天模型。
设置
您必须在 Azure ML 上部署模型 或部署到 Azure AI Foundry(原 Azure AI Studio) 并获取以下参数:endpoint_url:端点提供的 REST 端点 URL。endpoint_api_type:将模型部署到专用端点(托管管理基础设施)时使用endpoint_type='dedicated'。使用按需付费产品(模型即服务)部署模型时使用endpoint_type='serverless'。endpoint_api_key:端点提供的 API 密钥
内容格式化器
content_formatter 参数是一个处理程序类,用于转换 AzureML 端点的请求和响应以匹配所需的模式。由于模型目录中有多种模型,每个模型处理数据的方式可能不同,因此提供了 ContentFormatterBase 类,允许用户根据自己的喜好转换数据。提供以下内容格式化器:
CustomOpenAIChatContentFormatter:为遵循 OpenAI API 规范的请求和响应的模型(如 LLaMa2-chat)格式化请求和响应数据。
langchain.chat_models.azureml_endpoint.LlamaChatContentFormatter 已被弃用,并替换为 langchain.chat_models.azureml_endpoint.CustomOpenAIChatContentFormatter。
您可以从 langchain_community.llms.azureml_endpoint.ContentFormatterBase 类派生,为您的模型实现自定义内容格式化器。
示例
以下部分包含有关如何使用此类的示例:示例:使用实时端点进行聊天完成
示例:使用按需付费部署(模型即服务)进行聊天完成
model_kwargs 参数: