AI 加速网关支持接入您自部署的模型服务。通过将自部署模型添加到网关实例,您可以利用 AI 加速网关的全球加速、智能路由、限流和监控等能力来管理这些模型的 API 调用。
当您遇到以下场景时,可以将自部署模型接入 AI 加速网关:
接入前,请确保满足以下条件:
将自部署模型接入 AI 加速网关的基本流程如下:
确认模型的接口协议。
根据您的模型类型(文本生成、语音合成或语音识别),确认自部署模型的接口是否符合网关要求的协议规范。
在网关实例中添加自部署模型。
登录全站加速控制台,进入目标实例的编辑页面。在 模型配置 区域,添加 自部署模型 作为模型来源,填写模型名称、BaseURL 和 API Key。
注意
自部署模型仅支持通过 OpenAI 兼容协议方式调用。在配置模型时必须提供模型的 API Key。关于调用方式的详细介绍,请参见功能特性。
对于语音合成(TTS)模型,按需配置协议类型(HTTP 或 WebSocket)、采样率、位深、通道数和集成方式。
对于语音识别(ASR)模型,按需配置结果输出方式和是否支持 VAD。
详细的配置项说明请参见配置说明。
调用模型
模型添加成功后,您即可通过网关服务地址调用自部署模型。
文档 | 说明 |
|---|---|
通过 OpenAI 兼容协议方式调用的示例代码,适用于自部署文本生成、语音合成、语音识别模型。 | |
自部署模型需要遵循的接口协议详情,包括 TTS 的 HTTP 和 WebSocket 协议、ASR 的 WebSocket 协议。 | |
通过 WebSocket 实时调用自部署语音合成模型的完整指南,包括建连参数、代码示例和 API 参考。 | |
通过 WebSocket 实时调用自部署语音识别模型的完整指南,包括建连参数、代码示例和 API 参考。 |