边缘大模型网关(AI Gateway)允许您通过一个 API 接口访问多家大模型提供商的模型与智能体。边缘大模型网关部署在遍布全球的边缘计算节点上,使端侧应用能够就近接入,显著提高模型访问速度;内置语义缓存机制,减少模型调用请求的回源次数,为终端用户提供更快速、更可靠的 AI 服务体验。
下图是边缘大模型网关的服务架构图。

服务优势
- 接口标准化:完全兼容 OpenAI 的 API 与 SDK,便于集成,有效降低适配成本。
- 多模型支持:支持超 15 家大模型提供商的大模型及智能体服务请求。
- 场景化定制:平台预置多领域 AI 智能体,提供一站式 AI 服务调用。
- 边缘缓存优化:借助缓存机制响应用户请求,节省模型服务成本。
- 就近高效访问:将请求就近路由至低延时边缘节点,加快服务响应,提升服务品质。
- 自动重试机制:遇错误自动重试请求,减少手动运维成本。
- 故障智能转移:单模型故障时自动切换备用模型,保障服务稳定。
支持的调用渠道
关于边缘大模型网关支持的所有模型、智能体,请参见支持的调用渠道。
使用说明
边缘大模型网关目前处于免费测试阶段,向所有用户开放。