You need to enable JavaScript to run this app.
导航

使用官方模型

最近更新时间2024.01.30 15:29:35

首次发布时间2023.09.11 10:02:29

本文介绍了如何使用边缘智能的官方推理模型。您可以选择合适的官方推理模型,将其部署到您的一体机进行使用。

前提条件

  • 您已经开通了边缘智能产品。如您还未开通产品,请参见准备工作

  • 您已经为项目绑定了一体机。相关操作,请参见绑定一体机

操作步骤

  1. 登录边缘智能控制台

  2. 在左侧导航栏顶部的 我的项目 区域,选择您的项目。

  3. 在左侧导航栏,选择 边缘推理 > 模型管理
  4. 单击 官方模型 页签。
    官方模型 页签展示了所有官方推理模型的基础信息。
  5. 找到您需要使用的模型,单击模型名称。
    您将会进入模型详情页面。在模型详情页面,您可以了解模型的 基本信息Tensor配置版本管理(包括已发布的 模型版本、已有的 前后处理版本) 信息。
    alt
    alt
  6. 部署官方模型。
    1. 单击 模型服务 页签,然后单击 部署模型服务
    2. 部署模型服务 页面,完成相关参数的设置,然后单击 确认
区域参数说明
基本信息项目固定为当前选择的项目。
一体机选择需要部署模型服务的一体机。

服务名称

为模型服务设置名称。输入要求如下:

  • 可使用的字符包括:中文字符、英文大小写字母、数字、下划线(_)、连字符(-)。
  • 长度必须在 32 个字符以内。特殊字符不能用作开头或结尾,且不能连续使用。
  • 在一台一体机上,模型服务的名称必须唯一。
模型信息模型固定为当前选择的官方模型。
模型版本选择要部署的模型版本。
模型前后处理版本选择要部署的模型前后处理版本。关于前后处理版本的详细说明,请参见为模型创建版本
服务配置服务状态类型固定为 无服务状态
最大批处理大小设置最大批处理数量。取值范围:0 ~ 100。

HTTP端口

输入 HTTP 服务端口。端口范围:30000 ~ 40000。
您设置的 HTTP 端口不能是一体机中已被其他服务占用的端口。

GRPC端口

输入 GRPC 服务端口。端口范围:30000 ~ 40000。
您设置的 GRPC 端口不能是一体机中已被其他服务占用的端口。

部署实例

为每个子模型分别配置 CPU模型服务实例数GPU模型服务实例数

  • 模型Ensemble 之外的类型时,子模型有一个;当 模型Ensemble 类型时,有多个子模型。更多信息,请参见创建自定义模型
  • CPU模型服务实例数 表示预期在 CPU 上水平扩展的模型服务的数量。取值范围:0 ~ 100。
  • GPU模型服务实例数 表示预期在 GPU 上水平扩展的模型服务的数量。取值范围:0 ~ 100。

资源配置

为模型服务分配一体机资源。

  • CPU配额:容器需要使用的最小 CPU 核数。单位:Core。使用一位小数表示。取值范围:0.1 ~ 128.0。
  • CPU限额:容器可以使用的最大 CPU 核数。单位:Core。使用一位小数表示。取值范围:0.1 ~ 128.0。
  • 内存配额:容器需要使用的最小内存值。单位:MB 或 GB。使用整数表示。取值范围:0MB ~ 128GB。
  • 内存限额:容器可以使用的最大内存值。单位:MB 或 GB。使用整数表示。取值范围:0MB ~ 128GB。

注意

如果模型服务在 CPU 或内存方面超过限额,容器将会被终止。

高级配置动态批处理设置是否开启动态批处理功能。该功能让模型服务器得以将多个推理请求组合,动态地生成一个批次。一般来说,创建请求批次可以优化吞吐量。

最大批处理延迟

设置批处理延迟的最大时间。单位:us。取值范围:0~1000000。超过该时间会立刻开始推理。

说明

该参数只在 动态批处理 时出现。

是否开启压缩模式

选择是否采用输入压缩模式来部署模型服务。

说明

模型Ensemble 类型时,无法开启压缩模式。

在模型服务与数据流分开部署的场景(如云边协同)建议开启输入压缩模式。开启输入压缩模式后,模型服务的部署会自动转化为一个 Ensemble 联合模型服务的部署,它包含三部分:Ensemble 模型,Python 前处理模型以及您选择的模型本身。
在这种模式下,整个 Ensemble 模型的输入图片 Tensor 会变成压缩后的 jpeg string。相对于原始模型,输入 Tensor 的大小有大幅度的缩小。Python 前处理模型则是用来将压缩后的 jpeg string 恢复成原始模型的输入 Tensor。

示例:
假设原始模型的图片输入 Tensor 大小是 3×640×640,因此该输入 Tensor 大小是 4.6875MB。而压缩后,输入 Tensor 大小仅仅是 jpeg string 的大小,大约是几十 KB。

参数配置

您可以通过该参数自定义参数配置,并将您的参数配置发送到一体机。

说明

  • 只有当 模型 的类型是 Python 时,自定义的参数配置才会被启用。
  • 如果您希望使用这个功能,建议您联系售后技术支持来帮助您完成配置。

完成上述操作后,您可以在 模型服务 列表查看已经部署的模型服务。当模型服务的状态变为 运行中,表示模型服务已经部署成功。