模型蒸馏(Model Distillation)是一种模型压缩技术,通过将复杂教师模型(如大规模预训练模型)的知识迁移至轻量学生模型,在保持学生模型高效推理能力的同时,显著提升其性能,适用于资源受限场景的模型部署。
相关技术实践与效果验证请参考 蒸馏 DeepSeek-R1 最佳实践。
平台支持将自定义推理接入点(预置接入点不支持)的调用数据(包含 Request/Response)通过加密通道投递至 AI 数据湖。数据仅用户可见且可管理,平台不存储或使用未授权数据。数据延迟约 10 分钟,支持单个/批量开启。
在「数据集 > 我的数据湖」页面,通过“调用日期、模型版本、推理接入点 ”筛选目标数据。
在控制台「模型精调」模块,点击「创建精调任务」进入配置界面。
创建任务时注意以下几项配置:
其他配置请参考创建模型精调任务完成。
精调完成后,模型将作为「自定义模型」导出到「模型仓库」。
为了通过 API 调用、控制台在线测试、批量推理等方式使用精调后的模型,可以在「在线推理」模块「自定义推理接入点」创建推理接入点。
请参考通过 Endpoint ID 调用模型获取推理接入点,注意模型要选择模型仓库中的精调模型。
参考创建模型评测任务新建评测任务 ,关联目标模型的推理接入点进行评测。
任务启动后,可在评测任务列表中查看任务的运行状态和评测进度。每个模型都有属于该模型的单独评测任务,以便进行独立或组合查看。
任务完成后,可以在任务详情页点击「评测报告」,查看当前模型在选择的能力维度下的单项得分和综合得分。每个能力维度下,可分别查看该能力项中各个数据集的得分。