本文介绍了如何使用 ONNX 模型加密功能。
边缘智能提供一个 ONNX 模型文件加密工具。该模型加密工具是一个 Python 脚本,它基于 AES 算法对本地的 .onnx 模型文件进行加密。您可以将加密的模型文件上传到边缘智能平台,而将加密密钥保管在边缘节点(无需上传到边缘智能平台)。
准备好您的 ONNX 模型文件(.onnx)。
key.json:用于保存加密密钥。main.py:加密的主脚本。README.md:加密工具的使用说明。README.md 的说明安装所需依赖。key.json 中 model_key 参数的值,设置一个密钥。main.py。encrypted_<原名称>.onnx。1)的文件夹下,并将模型文件重命名为 model.onnx。
要在边缘节点上部署加密的 ONNX 模型文件,您必须先将加密模型文件时使用的密钥(key.json)存放到边缘节点的指定路径。否则,边缘节点将无法识别您部署的模型文件,导致模型服务无法正常运行。
远程登录您计划部署 ONNX 加密模型的边缘节点。相关操作,请参见远程登录节点。
在 /etc 目录创建一个文件夹(ver_infer),用来存放密钥文件。
mkdir -p /etc/vei_infer
前往 /etc/vei_infer 目录,然后使用上传文件功能,将 key.json 文件上传到该目录。
登录边缘智能控制台。
在左侧导航栏,从 我的空间 下拉列表选择一个空间。
onnx-encrypted-model。
完成以上操作后,您可以在 模型服务 列表查看已经部署的模型服务。当模型服务的状态变为 运行中,表示模型服务已经部署成功。