You need to enable JavaScript to run this app.
最新活动
大模型
产品
解决方案
定价
生态与合作
支持与服务
开发者
了解我们

赋能AI

产品架构

推理架构

模型加速

PD分离

架构图
推理架构
深度融合新一代云原生AI技术,为AI负载提供部署加速、应用编排、资源调度等能力。

产品优势

百个镜像分钟级拉取
R1满血模型冷启动提速8倍
PD分离编排,提升资源管理效率
精准弹性伸缩,提升GPU利用率
GPU故障检测,分钟级定位自愈

相关产品

架构图

产品优势

百个镜像分钟级拉取
R1满血模型冷启动提速8倍
PD分离编排,提升资源管理效率
架构图
模型加速
基于P2P技术和模型加载工具,实现百台GPU分钟级部署DeepSeek-R1-671B完整模型,极大缩短模型部署时间。

产品优势

镜像加速支撑分钟级别服务拉起
模型加速基于RDMA网络提升8倍

相关产品

架构图

产品优势

镜像加速支撑分钟级别服务拉起
模型加速基于RDMA网络提升8倍
架构图
PD分离
PD分离动态调整,复合指标指导精准扩缩。

产品优势

PD分离编排,提升资源管理效率
复合指标弹性扩缩,提升GPU利用率

相关产品

架构图

产品优势

PD分离编排,提升资源管理效率
复合指标弹性扩缩,提升GPU利用率

推理架构

架构图

产品优势

百个镜像分钟级拉取
R1满血模型冷启动提速8倍
PD分离编排,提升资源管理效率
架构图

产品优势

镜像加速支撑分钟级别服务拉起
模型加速基于RDMA网络提升8倍
架构图

产品优势

PD分离编排,提升资源管理效率
复合指标弹性扩缩,提升GPU利用率

产品优势

源自字节跳动百万节点容器管理的最佳实践
全栈加速
AI镜像和模型缓存加速

AI加速

模型加速提升AI推理性能
AI镜像快速加载
vRDMA、自研veCCL
高利用率
极致GPU使用率

AI资源高效管理

丰富的GPU共享调度策略
支持AI多模型混部
支持GPU在线离线业务混部
极致弹性
秒级响应突发流量浪涌

AI负载高效弹性

推理服务PD实例的独立扩缩容
GPU工作负载缩容到0,节省资源
自定义指标进行AI负载扩缩容
高效运维
AI运维一站式

AI服务运维观测

支持模型性能观测
支持GPU故障检测自愈
丰富的GPU、RDMA指标观测
全栈加速
AI镜像和模型缓存加速

AI加速

模型加速提升AI推理性能
AI镜像快速加载
vRDMA、自研veCCL
高利用率
极致GPU使用率

AI资源高效管理

丰富的GPU共享调度策略
支持AI多模型混部
支持GPU在线离线业务混部
极致弹性
秒级响应突发流量浪涌

AI负载高效弹性

推理服务PD实例的独立扩缩容
GPU工作负载缩容到0,节省资源
自定义指标进行AI负载扩缩容
高效运维
AI运维一站式

AI服务运维观测

支持模型性能观测
支持GPU故障检测自愈
丰富的GPU、RDMA指标观测

应用场景

分布式推理
PD分离编排,提升资源管理效率;PD实例独立动态扩容,提升GPU利用率。
AI训练
通过容器服务实现AI训练任务的分布式调度与管理,支持多节点GPU资源动态分配和弹性扩缩容。
强化学习
多角色灵活编排与弹性高并发调度,提升训练效率;集群诊断与自愈,保证训练稳定性。
高弹性业务
为直播、电商、游戏等负载剧烈波动的业务提供按需使用、秒级弹性、稳定可靠的资源支撑。
分布式推理
PD分离编排,提升资源管理效率;PD实例独立动态扩容,提升GPU利用率。
AI训练
通过容器服务实现AI训练任务的分布式调度与管理,支持多节点GPU资源动态分配和弹性扩缩容。
强化学习
多角色灵活编排与弹性高并发调度,提升训练效率;集群诊断与自愈,保证训练稳定性。
高弹性业务
为直播、电商、游戏等负载剧烈波动的业务提供按需使用、秒级弹性、稳定可靠的资源支撑。
分布式推理
PD分离编排,提升资源管理效率;PD实例独立动态扩容,提升GPU利用率。
分布式推理
AI训练
强化学习
高弹性业务

分布式推理

PD分离编排,提升资源管理效率;PD实例独立动态扩容,提升GPU利用率。
分布式推理

AI训练

通过容器服务实现AI训练任务的分布式调度与管理,支持多节点GPU资源动态分配和弹性扩缩容。
AI训练

强化学习

多角色灵活编排与弹性高并发调度,提升训练效率;集群诊断与自愈,保证训练稳定性。
强化学习

高弹性业务

为直播、电商、游戏等负载剧烈波动的业务提供按需使用、秒级弹性、稳定可靠的资源支撑。
高弹性业务

产品功能

AI资源管理

AI资源管理

支持GPU显存和算力的严格隔离以及算力细粒度分配,支持业务混部,实现GPU资源利用率的大幅提升。详情详情
AI负载弹性伸缩

AI负载弹性伸缩

丰富的弹性伸缩策略,支持自定义指标伸缩、事件驱动伸缩、智能伸缩等策略。详情详情
AI观测

AI观测

支持GPU等资源观测、应用观测等丰富的指标,支持多粒度的展示,提升AI运维的效率。详情详情
AI数据加速

AI数据加速

将数据从存储位置缓存到算力近端,缩短算力端加载模型用时,提升AI训练和大模型应用的推理运行速度。详情详情
调度管理

调度管理

丰富的调度策略满足在离线等不同场景的业务需求,在保障应用性能的同时最大化提高资源利用率。详情详情
弹性容器

弹性容器

基于安全沙箱构建Serverless GPU,支持秒级启动,具备灵活的弹性伸缩能力。详情详情
AI资源管理

AI资源管理

支持GPU显存和算力的严格隔离以及算力细粒度分配,支持业务混部,实现GPU资源利用率的大幅提升。详情详情
AI负载弹性伸缩

AI负载弹性伸缩

丰富的弹性伸缩策略,支持自定义指标伸缩、事件驱动伸缩、智能伸缩等策略。详情详情
AI观测

AI观测

支持GPU等资源观测、应用观测等丰富的指标,支持多粒度的展示,提升AI运维的效率。详情详情
AI数据加速

AI数据加速

将数据从存储位置缓存到算力近端,缩短算力端加载模型用时,提升AI训练和大模型应用的推理运行速度。详情详情
调度管理

调度管理

丰富的调度策略满足在离线等不同场景的业务需求,在保障应用性能的同时最大化提高资源利用率。详情详情
弹性容器

弹性容器

基于安全沙箱构建Serverless GPU,支持秒级启动,具备灵活的弹性伸缩能力。详情详情
展开查看更多

客户案例

来自企业客户的信任
理想汽车
理想汽车使用火山引擎VKE实现超大规模容器集群的资源管理和调度,加速自动驾驶AI模型训练业务。
理想汽车
晶泰科技
火山引擎VKE/VCI提供大量算力,助力晶泰科技构建高效弹性云产业平台,提升药物研发效率。
晶泰科技
沐瞳科技
火山引擎VKE/VCI提供弹性伸缩能力,每周多轮次数分钟内完成数十万核资源的弹性,助力沐瞳科技稳定应对流量高峰场景。
沐瞳科技
理想汽车晶泰科技沐瞳科技

产品动态

2025-06-11
应用中心新增5个“AI云原生”推理服务模板。通过容器编排、AI网关、推理全链路观测和分布式缓存,支持企业在大规模GPU集群上高效、稳定、高性价比运行主流推理模型。
查看详情
2025-02-10
mGPU支持在线和离线业务混合部署到同一张GPU卡。提升了GPU资源利用率。
查看详情
2025-02-10
容器服务公测支持Kubernetes v1.30版本,提供新的Kubernetes版本功能体验。
查看详情
2024-08-26
RDMA设备插件 (rdma-device-plugin) 公测,支持RDMA设备插件组件化安装方式,通过独占和共享方式便捷使用RDMA能力,提升用户体验。
查看详情
2024-07-22
GPU机型节点公测支持Ubuntu操作系统。扩展支持了Linux发行版,满足更多用户的场景需求。
查看详情
2024-07-10
mGPU多卡共享支持全量算力分配策略,进一步提高GPU碎片化资源利用率,适用于更多容器共享业务场景。
查看详情