AI 加速网关实例是统一管理和加速大模型 API 调用的入口。本文介绍如何在全站加速(DCDN)控制台创建 AI 加速网关实例。
在以下场景中,您可以创建并使用 AI 加速网关实例:
创建实例前,请确保:
API Key。API Key 和地址(BaseURL)。登录 全站加速控制台。
在左侧导航栏,选择 AI 加速网关 > 实例管理。
单击 新增实例。
在 创建实例 页面完成以下配置。参数详情请参见 配置说明。
单击 确定。
创建成功后,页面自动返回 实例管理 列表。单击实例名称进入 实例详情 页面。您可以在 请求方式 区域获取 BaseUrl、APIKey,以及 Curl 和 Python 的调用示例。
实例创建页面的配置项说明如下:
配置分组 | 配置项 | 说明 |
|---|---|---|
基本信息 | 实例名称 | 实例的标识名称。 |
实例类型 | 指定实例用途。目前仅支持 MaaS API 加速,用于统一管理和加速大模型 API 调用。 | |
模型配置 | 模型路由策略 | 请求分发规则。可选项:
|
模型/智能体 | 单击 添加模型 接入后端模型,最多支持添加 50 个。 | |
| ||
模型 API Key | 火山方舟模型的访问凭证。推荐选择 从列表中选择,自动加载已创建的 API Key;也支持 自定义输入。 | |
推理接入点 | 模型在火山方舟的推理端点地址。 | |
模型格式 | 模型通信协议,目前仅支持 OpenAI。 | |
调用类型 | 模型服务场景。可选项:文本生成、图像生成、语音识别、向量模型、语音合成。 | |
(阿里云百炼大模型服务平台、Kimi 开放平台、智谱 AI 开放平台、百度千帆、腾讯混元、硅基流动 SiliconCloud、MiniMax 开放平台、讯飞星辰 MaaS 平台、DeepSeek 开放平台、零一万物大模型开放平台) | ||
模型名称 | 在网关中显示的自定义名称。 | |
API Key | 第三方平台提供的 API Key。 | |
模型格式 | 模型通信协议,目前仅支持 OpenAI。 | |
调用类型 | 模型服务场景,目前仅支持 文本生成。 | |
| ||
模型名称 | 在网关中显示的自定义名称。 | |
BaseURL | 自部署模型的服务地址。 | |
API Key | 自部署模型的 API Key。 | |
模型格式 | 模型通信协议,目前仅支持 OpenAI。 | |
调用类型 | 模型服务场景。可选项:文本生成、语音合成、语音识别。对于语音合成和语音识别模型,网关支持透传以下额外配置: | |
协议类型 | (仅语音合成)模型通信协议。可选项:HTTP、WebSocket。 | |
采样率 | (仅语音合成)音频采样率(Hz),需输入正整数。 | |
位深 | (仅语音合成)音频位深度,目前仅支持 16bit。 | |
通道数 | (仅语音合成)音频通道数。可选项:1(单声道)、2(立体声)。 | |
集成方式 | (仅 HTTP 语音合成)网关处理用户请求的方式:
| |
结果输出方式 | (仅语音识别)识别结果返回方式:
| |
是否支持 VAD | (仅语音识别)模型是否支持语音活动检测(Voice Activity Detection)。 | |
高级配置 | 加速区域 | 选择您的用户主要所在的地理区域,以便网关能够就近接入,优化网络延迟。可选项:中国大陆、全球、全球(除中国大陆)。 |
加速域名 | 设置实例的公开访问地址前缀。完整的加速域名将作为客户端调用的 | |
缓存启用状态 | 开启后,网关会缓存模型的成功响应。当后续收到相似的请求时,将直接从缓存中返回结果,提升性能并降低成本。 | |
缓存时长 | (仅开启缓存时)缓存的有效时间。超过此时长,缓存将被视为过期并自动清除。可选项:1 分钟、5 分钟、30 分钟、1 小时、1 天、1 周。 | |
限流配置 | 设置请求速率限制,保护后端服务免受流量冲击。 | |
HTTP 协议 | (仅开启限流时)限制每分钟的请求数(RPM)。 | |
WebSocket 协议 | (仅开启限流时)限制并发连接数。 | |