使用官方模型本文介绍了如何使用边缘智能的官方推理模型。您可以选择合适的官方推理模型,将其部署到您的一体机进行使用。 前提条件 在左侧导航栏顶部的 我的项目 区域,选择您的项目。3. 在左侧导航栏,选择 边缘推理 > 模型管理。4. 单击 官方模型 页签。官方模型 页签展示了所有官方推理模型的基础信息。5. 找到您需要使用的模型,单击模型名称。您将会进入模型详情页面。在模型详情页面,您可以了解模型的 基本信息、Tensor配置、版本管理(包括...
官方数据流模板概述本文介绍了边缘智能提供的官方数据流模板。您可以基于官方数据流创建数据流实例,并部署数据流实例到您的一体机进行使用。数据流实例一般与推理模型搭配使用。 模板名称 描述 引用的官方推理模型 ROI/绊线示例模板 从 RTSP 流数据中统计人流量,并将统计结果通过虚拟时序设备上报到云端。统计方式包括: 统计(图片或视频帧中)特定区域内的人流量 统计(图片或视频帧中)从某个方向跨越特定边界线的人流量。 行人检测-01-PeopleNet...
部署自定义的 yolo 模型本教程以 tiny-yolov3 模型为例,介绍如何在边缘智能创建自定义推理模型,并在边缘一体机上部署相应的模型服务。此外,本教程提供了一份示例代码,可用于验证模型服务是否正常工作。 准备工作在边缘智能创建自定义模型前,您需要准备好模型文件及相关的配置信息。 下载模型文件。通过 GitHub 获取所需的模型文件。访问 tiny-yolov3-11.onnx 模型页面,然后单击下载图标,下载模型文件。 调整文件结构。边缘智能对模型文件的文件结构有...
边缘推理概述边缘智能基于云边一体的推理框架,提供边缘推理功能,包括云上推理模型管理和本地模型实时推理。您可以对边缘推理模型和边缘推理服务进行快速部署、升级。模型管理功能为模板化管理推理模型提供便利性。您可以创建、编辑推理模型,也可以创建、编辑、删除、发布模型版本。 使用概述边缘推理提供了一些官方的推理模型。如果官方模型满足您的业务需要,您可以直接将官方模型部署到一体机进行使用。此外,您也可以创建自定义模型,将您的模...
GPU-基于Diffusers和Gradio搭建SDXL推理应用本文以搭载了一张V100显卡的ecs.g1ve.2xlarge实例,介绍如何在GPU云服务器上基于Diffusers搭建SDXL 1.0的base + refiner组合模型。 背景信息SDXL Stable Diffusion XL(简称SDXL)是最新的图像生成模型,与之前的SD模型(stable 1.5和 stable 2.1)相比,SDXL提供更有艺术感、更真实的图像。 Diffusers Diffusers库是Hugging Face推出的一个操作扩散模型的工具箱,提供Diffusion推理训练全流程,简单方便的使用各种扩散模型生成图像、音频...
字节跳动基于 Ray 的大规模离线推理大模型离线推理(Batch 推理),是指在具有数十亿或数千亿参数的大规模模型上进行分布式推理的过程。相较于常规模型推理,它在模型切分、数据处理和数据流、提升 GPU 利用率方面面临着很大的挑战。上图是一个较为完整的文生图模型推理业务架构示...