机器学习云平台为用户提供了强大的AI算法开发工具,整合云原生的工具+算力(GPU、CPU云服务器),加速开发和部署流程。本案例旨在展示如何利用 MLP 快速部署 ComfyUI ,以实现高效的图像生成和处理。
填写各项参数及 Prompt 后,点击 Queue Prompt,即可获得图像输出。
本方案以 ComfyUI 为例,在开始执行操作前,请确认您已经完成以下准备工作:
进入在开发机控制台,创建开发机并进行资源部署,具体操作详见创建开发机--机器学习平台-火山引擎。关键配置如下:
vemlp-demo-cn-shanghai.cr.volces.com/demo/comfyui:v0.2.3
开发机内执行以下命令,其中下载模型时,请根据开发机所处的 Region 执行相应的内网下载命令。其中,模型内网单流下载速度约为 50MB/s,预期需要 2min 左右。注意服务起在 0.0.0.0:8188。
cd ~/code/ComfyUI/models/checkpoints # 华东2(上海)执行以下命令下载 wget vemlp-demo-cn-shanghai.tos-cn-shanghai.ivolces.com/models/sd_xl_turbo_1.0_fp16.safetensors # 华北2(北京)执行以下命令下载 wget vemlp-demo-cn-beijing.tos-cn-beijing.ivolces.com/models/sd_xl_turbo_1.0_fp16.safetensors python ~/code/ComfyUI/main.py --listen 0.0.0.0
在 Terminal 内 command+点击 http://0.0.0.0:8188 或者 在 开发机详情页-访问配置 获取访问地址在浏览器打开,即可进入 ComfyUI 服务界面。
进入在线服务控制台,创建推理服务并进行资源部署,关键配置如下:
vemlp-demo-cn-shanghai.cr.volces.com/demo/comfyui:v0.2.3
cd ~/code/ComfyUI/models/checkpoints # 华东2(上海)执行以下命令下载 wget vemlp-demo-cn-shanghai.tos-cn-shanghai.ivolces.com/models/sd_xl_turbo_1.0_fp16.safetensors # 华北2(北京)执行以下命令下载 wget vemlp-demo-cn-beijing.tos-cn-beijing.ivolces.com/models/sd_xl_turbo_1.0_fp16.safetensors python ~/code/ComfyUI/main.py --listen 0.0.0.0
说明
生产业务中,模型建议通过挂载共享存储 vePFS/SFCS 拉取,以保证扩容效率。
完成上述配置后,可以在【服务详情页-日志】处看到,模型内网单流下载速度约为 50MB/s,预期需要 2min 左右。注意服务起在 0.0.0.0:8188。
进入已创建的在线服务【详情页 - 调用指南】,获取公网访问地址并在浏览器打开。