官方模型库本文介绍了边缘智能提供的官方推理模型。您可以将官方模型部署到您的一体机进行使用。 模型类型 模型名称 描述 物体检测 COCO物体检测-01-SSD-ONNX 一种使用 SSD 算法,在 COCO 数据集上进行训练的物体检测模型,用于在图像中检测和识别各种不同类别的物体,如行人、车辆、动物等。本模型以 ONNX 格式进行部署。 COCO物体检测-02-YOLOX-Tiny-ONNX 一种使用 YOLOX-Tiny 算法,在 COCO 数据集上进行训练的物体检测模型,用于在图像或...
官方数据流模板概述本文介绍了边缘智能提供的官方数据流模板。您可以基于官方数据流创建数据流实例,并部署数据流实例到您的一体机进行使用。数据流实例一般与推理模型搭配使用。 模板名称 描述 引用的官方推理模型 ROI/绊线示例模板 从 RTSP 流数据中统计人流量,并将统计结果通过虚拟时序设备上报到云端。统计方式包括: 统计(图片或视频帧中)特定区域内的人流量 统计(图片或视频帧中)从某个方向跨越特定边界线的人流量。 行人检测-01-PeopleNet...
边缘推理概述边缘智能基于云边一体的推理框架,提供边缘推理功能,包括云上推理模型管理和本地模型实时推理。您可以对边缘推理模型和边缘推理服务进行快速部署、升级。模型管理功能为模板化管理推理模型提供便利性。您可以创建、编辑推理模型,也可以创建、编辑、删除、发布模型版本。 使用概述边缘推理提供了一些官方的推理模型。如果官方模型满足您的业务需要,您可以直接将官方模型部署到一体机进行使用。此外,您也可以创建自定义模型,将您的模...
【MindStudio训练营第一季】MindStudio 专家系统随笔# 简介**专家系统**(Mindstudio Advisor) 是用于聚焦模型和算子的性能调优Top问题,识别性能瓶颈,重点构建瓶颈分析、优化推荐模型,支撑开发效率提升的工具。专家系统当前已经支持针对推理、训练、算子场景的瓶颈分析模型,包括内部团队开发的模型&算子瓶颈分析和优化推荐知识库、针对onnx模型的自动调优知识库,以及基于生态开发者开发的生态知识库。![image.png](https://bbs-img.huaweicloud.com/blogs/img/20221205/16702120...
步骤2:为模型创建版本您可以根据 ONNX 模型文件加密说明准备对应的模型文件。 前后处理版本前后处理版本适用于 图像分类 和 物体检测 模型。它定义了模型前处理和后处理的相关配置。 前处理配置:表示在模型推理前对输入的图像进行预处理,如缩放、正则化等。 后处理配置:表示定义输出的分类标签、设置输出的物体聚类方式等。 通过创建前后处理版本,您可以提前定义好前处理和后处理的相关配置,这样方便您更灵活地在数据流中配置推理模型节点。在部署模型...
SaaS产品动态模型任务记录页面,支持查看训练任务的训练日志,方便用户通过训练日志排查问题。 2023.10.12 数据管理更新类型 功能描述 产品截图说明 新功能 去重配置页面,各行业支持对行业相关的所有行为做去重设置,当用... 模型开发【新功能】针对已经发布的自定义模型,支持推理资源更配。 【新功能】自定义模型支持配置动态扩缩容。 策略管理【优化】模型召回的生效时间由T+1改为当天生效。 2023.6.8 策略管理【新功能】除内置的业...
基于 Ray 的大规模离线推理> 本文整理自字节跳动基础架构资深研发工程师王万兴在火山引擎开发者社区 Meetup 中的分享。大模型离线推理,是指在具有数十亿或数千亿参数的大规模模型上进行分布式推理的过程。相较于常规模型推理,在模型切分、数... 没有办法轻易地做到,主要是因为 Spark 和 Flink 一般绑定了比较固定的批/流的计算范式,在调度层面不够灵活。- **性能**性能方面,由于是离线计算作业,我们希望它的吞吐和 GPU 的利用率能够越高越好。第一点...