本文主要为您介绍火山引擎容器服务(VKE)的常见应用场景。
云原生 AI
基于容器集群为 GPU、RDMA 等异构资源提供统一的运维管理能力,为面向 AI 业务的分布式存储层提供统一的运维管理能力,支撑 AI 模型开发、训练、推理等场景,为 AI 平台提供强大的算力底座。
- 大规模 AI 模型训练
加速镜像构建、提升 AI 模型训练性能、降低故障影响。 - 批量科学计算
提供计算资源半托管的队列管理、任务调度管理、任务工作流编排、任务监控等能力,实现队列高效调度、资源按需弹性。 - 大模型应用构建
集成主流的 AI 模型推理框架,提供高性能、弹性、安全的模型推理环境,大幅减少资源碎片。 - SD 批量生图
基于 Stable Diffusion 图像生成模型,实现高性能模型加载、Serverless 免运维、大规模镜像加速等能力。
云原生批量计算
批量计算是指对一组或一批事务的处理,一旦开始进行批量计算,就无需用户进行交互。火山引擎的“云原生+批量计算”可广泛用于基因数据分析、AI 自动驾驶、多媒体渲染、高性能计算等场景。
- 基因数据分析
基于容器服务提供的计算资源,将 Cromwell 任务转换成批量计算任务,并将任务提交至队列进行调度和处理,用户无需关注底层集群计算资源和复杂任务实例的管理、运维。 - AI 自动驾驶
帮助自动驾驶平台快速实现基于容器服务集群执行仿真训练任务,屏蔽集群的计算资源管理、任务调度与执行、业务运维以及数据缓存加速等方面的复杂细节,让自动驾驶平台能够更加专注于仿真训练业务本身。 - 多媒体处理
基于 Workflow 提供自动化内容渲染工作流水线的能力,用户可以构建自己的渲染依赖流程,同时利用批量计算的海量资源和作业调度能力来高效地完成视觉创作工作。 - 高性能计算
支持高性能计算(High Performance Computing)类型的批量计算任务,并且以 PaaS(平台即服务)化形式提供批量计算能力,让用户聚焦计算任务本身,把复杂的资源管理、调度、运维等交给批计算引擎和容器服务,同时也能获得弹性成本的优化。
高弹性业务
为直播、电商、游戏等负载剧烈波动的业务提供按需使用、秒级弹性、稳定可靠的资源支撑。
- 根据业务流量自动弹性扩容或弹性自愈,保证业务平稳健康运行。
- 无缝集成弹性容器,海量实例秒级启动,灵活应对业务高峰。
- 使用 弹性容器实例,专注于构建应用本身,无需购买和管理底层服务器等基础设施。
应用微服务化改造
- 对传统单体应用进行容器化微服务改造,提高业务模块可变更、可运维、可扩展能力。
- 支持业务灰度发布、弹性伸缩和全链路数据监控,提高企业生产力。
- 与微服务集成,通过快速更新、快速迭代、快速部署等容器特性,帮助微服务在企业生产环境顺利实施。
敏捷开发加速迭代
- 基于代码源自动完成代码编译、镜像构建、灰度发布、应用部署。
- 搭建容器镜像服务为 DevOps 提供基础能力,使其能够基于代码源自动完成代码编译、镜像构建、灰度发布、应用部署,实现一站式容器应用交付。
- 自动化实现从代码变更、镜像构建、应用交付、应用部署、应用运维的 DevOps 全流程,助力新功能敏捷上线,降低生产测试环境差异化,加快业务迭代。
多云部署互联互通
- 基于"多云多活"能力,将私有云与公有云环境打通并统一管理,实现应用与数据在云上云下无缝迁移。
- 支持运维管理多种异构云端资源,实现资源的跨云调度、业务的灵活容灾。