We're sorry but react app doesn't work properly without JavaScript enabled. Please enable it to continue.
最新活动
大模型
产品
解决方案
定价
生态与合作
支持与服务
开发者
了解我们
文档
备案
控制台
登录
立即注册
容器服务
容器服务(Volcengine Kubernetes Engine,VKE)提供高性能、高可靠、极致弹性的企业级容器管理能力;支持AI部署加速、GPU资源管理、AI编排调度,提升AI服务性能。
企业级Kubernetes集群管理服务
35% +
端到端吞吐提升
分钟级
超大模型加载
PD分离
增效释能
立即使用
产品文档
弹性容器
赋能AI
产品架构
产品优势
应用场景
产品功能
客户案例
使用指南
产品动态
赋能AI
AI应用编排
vLLM、SGLang、Dynamo等多种框架的推理服务编排,为AI场景提供高效的部署能力。
查看案例详情
AI模型加速
模型缓存加速,AI镜像快速加载,提升模型性能。
查看案例详情
GPU资源混部
支持GPU在离线任务错峰出让资源和多模型混部,提升GPU资源利用率。
查看案例详情
资源弹性伸缩
支持PD实例的独立扩缩,降低弹性时延、提升Token吞吐能力。
查看案例详情
AI应用编排
vLLM、SGLang、Dynamo等多种框架的推理服务编排,为AI场景提供高效的部署能力。
查看案例详情
AI模型加速
模型缓存加速,AI镜像快速加载,提升模型性能。
查看案例详情
GPU资源混部
支持GPU在离线任务错峰出让资源和多模型混部,提升GPU资源利用率。
查看案例详情
资源弹性伸缩
支持PD实例的独立扩缩,降低弹性时延、提升Token吞吐能力。
查看案例详情
AI应用编排
vLLM、SGLang、Dynamo等多种框架的推理服务编排,为AI场景提供高效的部署能力。
AI模型加速
模型缓存加速,AI镜像快速加载,提升模型性能。
GPU资源混部
支持GPU在离线任务错峰出让资源和多模型混部,提升GPU资源利用率。
资源弹性伸缩
支持PD实例的独立扩缩,降低弹性时延、提升Token吞吐能力。
产品架构
推理架构
模型加速
PD分离
推理架构
深度融合新一代云原生AI技术,为AI负载提供部署加速、应用编排、资源调度等能力。
产品优势
百个镜像分钟级拉取
R1满血模型冷启动提速8倍
PD分离编排,提升资源管理效率
精准弹性伸缩,提升GPU利用率
GPU故障检测,分钟级定位自愈
立即咨询
相关产品
镜像仓库
API网关
GPU云服务器
产品优势
百个镜像分钟级拉取
R1满血模型冷启动提速8倍
PD分离编排,提升资源管理效率
相关产品
镜像仓库
API网关
GPU云服务器
模型加速
基于P2P技术和模型加载工具,实现百台GPU分钟级部署DeepSeek-R1-671B完整模型,极大缩短模型部署时间。
产品优势
镜像加速支撑分钟级别服务拉起
模型加速基于RDMA网络提升8倍
立即咨询
相关产品
镜像仓库
文件存储vePFS
对象存储
文件存储NAS
产品优势
镜像加速支撑分钟级别服务拉起
模型加速基于RDMA网络提升8倍
相关产品
镜像仓库
文件存储vePFS
对象存储
文件存储NAS
PD分离
PD分离动态调整,复合指标指导精准扩缩。
产品优势
PD分离编排,提升资源管理效率
复合指标弹性扩缩,提升GPU利用率
立即咨询
相关产品
API网关
托管Prometheus
GPU云服务器
产品优势
PD分离编排,提升资源管理效率
复合指标弹性扩缩,提升GPU利用率
相关产品
API网关
托管Prometheus
GPU云服务器
推理架构
产品优势
百个镜像分钟级拉取
R1满血模型冷启动提速8倍
PD分离编排,提升资源管理效率
相关产品
镜像仓库
API网关
GPU云服务器
模型加速
产品优势
镜像加速支撑分钟级别服务拉起
模型加速基于RDMA网络提升8倍
相关产品
镜像仓库
文件存储vePFS
对象存储
文件存储NAS
PD分离
产品优势
PD分离编排,提升资源管理效率
复合指标弹性扩缩,提升GPU利用率
相关产品
API网关
托管Prometheus
GPU云服务器
产品优势
源自字节跳动百万节点容器管理的最佳实践
全栈加速
AI镜像和模型缓存加速
AI加速
模型加速提升AI推理性能
AI镜像快速加载
vRDMA、自研veCCL
高利用率
极致GPU使用率
AI资源高效管理
丰富的GPU共享调度策略
支持AI多模型混部
支持GPU在线离线业务混部
极致弹性
秒级响应突发流量浪涌
AI负载高效弹性
推理服务PD实例的独立扩缩容
GPU工作负载缩容到0,节省资源
自定义指标进行AI负载扩缩容
高效运维
AI运维一站式
AI服务运维观测
支持模型性能观测
支持GPU故障检测自愈
丰富的GPU、RDMA指标观测
全栈加速
AI镜像和模型缓存加速
AI加速
模型加速提升AI推理性能
AI镜像快速加载
vRDMA、自研veCCL
高利用率
极致GPU使用率
AI资源高效管理
丰富的GPU共享调度策略
支持AI多模型混部
支持GPU在线离线业务混部
极致弹性
秒级响应突发流量浪涌
AI负载高效弹性
推理服务PD实例的独立扩缩容
GPU工作负载缩容到0,节省资源
自定义指标进行AI负载扩缩容
高效运维
AI运维一站式
AI服务运维观测
支持模型性能观测
支持GPU故障检测自愈
丰富的GPU、RDMA指标观测
应用场景
分布式推理
PD分离编排,提升资源管理效率;PD实例独立动态扩容,提升GPU利用率。
立即咨询
AI训练
通过容器服务实现AI训练任务的分布式调度与管理,支持多节点GPU资源动态分配和弹性扩缩容。
立即咨询
强化学习
多角色灵活编排与弹性高并发调度,提升训练效率;集群诊断与自愈,保证训练稳定性。
立即咨询
高弹性业务
为直播、电商、游戏等负载剧烈波动的业务提供按需使用、秒级弹性、稳定可靠的资源支撑。
立即咨询
分布式推理
PD分离编排,提升资源管理效率;PD实例独立动态扩容,提升GPU利用率。
立即咨询
AI训练
通过容器服务实现AI训练任务的分布式调度与管理,支持多节点GPU资源动态分配和弹性扩缩容。
立即咨询
强化学习
多角色灵活编排与弹性高并发调度,提升训练效率;集群诊断与自愈,保证训练稳定性。
立即咨询
高弹性业务
为直播、电商、游戏等负载剧烈波动的业务提供按需使用、秒级弹性、稳定可靠的资源支撑。
立即咨询
分布式推理
PD分离编排,提升资源管理效率;PD实例独立动态扩容,提升GPU利用率。
立即咨询
分布式推理
PD分离编排,提升资源管理效率;PD实例独立动态扩容,提升GPU利用率。
立即咨询
AI训练
通过容器服务实现AI训练任务的分布式调度与管理,支持多节点GPU资源动态分配和弹性扩缩容。
立即咨询
强化学习
多角色灵活编排与弹性高并发调度,提升训练效率;集群诊断与自愈,保证训练稳定性。
立即咨询
高弹性业务
为直播、电商、游戏等负载剧烈波动的业务提供按需使用、秒级弹性、稳定可靠的资源支撑。
立即咨询
产品功能
立即咨询
AI资源管理
支持GPU显存和算力的严格隔离以及算力细粒度分配,支持业务混部,实现GPU资源利用率的大幅提升。
详情
详情
AI负载弹性伸缩
丰富的弹性伸缩策略,支持自定义指标伸缩、事件驱动伸缩、智能伸缩等策略。
详情
详情
AI观测
支持GPU等资源观测、应用观测等丰富的指标,支持多粒度的展示,提升AI运维的效率。
详情
详情
AI数据加速
将数据从存储位置缓存到算力近端,缩短算力端加载模型用时,提升AI训练和大模型应用的推理运行速度。
详情
详情
调度管理
丰富的调度策略满足在离线等不同场景的业务需求,在保障应用性能的同时最大化提高资源利用率。
详情
详情
弹性容器
基于安全沙箱构建Serverless GPU,支持秒级启动,具备灵活的弹性伸缩能力。
详情
详情
AI资源管理
支持GPU显存和算力的严格隔离以及算力细粒度分配,支持业务混部,实现GPU资源利用率的大幅提升。
详情
详情
AI负载弹性伸缩
丰富的弹性伸缩策略,支持自定义指标伸缩、事件驱动伸缩、智能伸缩等策略。
详情
详情
AI观测
支持GPU等资源观测、应用观测等丰富的指标,支持多粒度的展示,提升AI运维的效率。
详情
详情
AI数据加速
将数据从存储位置缓存到算力近端,缩短算力端加载模型用时,提升AI训练和大模型应用的推理运行速度。
详情
详情
调度管理
丰富的调度策略满足在离线等不同场景的业务需求,在保障应用性能的同时最大化提高资源利用率。
详情
详情
弹性容器
基于安全沙箱构建Serverless GPU,支持秒级启动,具备灵活的弹性伸缩能力。
详情
详情
展开查看更多
客户案例
来自企业客户的信任
理想汽车使用火山引擎VKE实现超大规模容器集群的资源管理和调度,加速自动驾驶AI模型训练业务。
立即使用
火山引擎VKE/VCI提供大量算力,助力晶泰科技构建高效弹性云产业平台,提升药物研发效率。
立即使用
火山引擎VKE/VCI提供弹性伸缩能力,每周多轮次数分钟内完成数十万核资源的弹性,助力沐瞳科技稳定应对流量高峰场景。
立即使用
理想汽车
晶泰科技
沐瞳科技
理想汽车使用火山引擎VKE实现超大规模容器集群的资源管理和调度,加速自动驾驶AI模型训练业务。
立即使用
火山引擎VKE/VCI提供大量算力,助力晶泰科技构建高效弹性云产业平台,提升药物研发效率。
立即使用
火山引擎VKE/VCI提供弹性伸缩能力,每周多轮次数分钟内完成数十万核资源的弹性,助力沐瞳科技稳定应对流量高峰场景。
立即使用
使用指南
欢迎查看使用指南
容器服务最佳实践
安全、稳定、高效地使用VKE容器集群。
部署满血版DeepSeek-V3/R1模型
稳定性运维方案
集群最佳实践
网络最佳实践
P2P镜像加速
容器镜像懒加载
了解容器服务
什么是容器服务
产品优势
产品计费
快速入门
可观测性
可观测概述
AI资源观测
日志概述
监控概述
弹性容器实例
什么是弹性容器实例
VCI快速入门
AI套件
AI套件概述
AI数据加速
产品动态
2025-06-11
应用中心新增5个“AI云原生”推理服务模板。通过容器编排、AI网关、推理全链路观测和分布式缓存,支持企业在大规模GPU集群上高效、稳定、高性价比运行主流推理模型。
查看详情
2025-02-10
mGPU支持在线和离线业务混合部署到同一张GPU卡。提升了GPU资源利用率。
查看详情
2025-02-10
容器服务公测支持Kubernetes v1.30版本,提供新的Kubernetes版本功能体验。
查看详情
2024-08-26
RDMA设备插件 (rdma-device-plugin) 公测,支持RDMA设备插件组件化安装方式,通过独占和共享方式便捷使用RDMA能力,提升用户体验。
查看详情
2024-07-22
GPU机型节点公测支持Ubuntu操作系统。扩展支持了Linux发行版,满足更多用户的场景需求。
查看详情
2024-07-10
mGPU多卡共享支持全量算力分配策略,进一步提高GPU碎片化资源利用率,适用于更多容器共享业务场景。
查看详情