LAS 任务管理为开发者提提供灵活、稳定、高性能的数据处理任务管理能力,支持多种算法框架,能够分布式处理大规模的数据处理任务,降低客户成本提升开发效率。
前提条件
- 您已经通过开发机或其他方式具备完整的可执行镜像。
说明
如果您的镜像在火山镜像仓库中,请注意您的仓库必须是。
- 您已创建相关队列(公共队列或专属队列)。
说明
如果您需要 GPU 资源,请注意队列创建需要选择 GPU。
操作步骤
- 登录 LAS 控制台,选择目标地域和项目。
- 在左侧导航栏中选择数据处理 > 任务管理,进入任务管理页面。
- 单击+创建任务,跳转至创建任务页面,并配置相关参数。

分类 | 配置项 | 说明 |
|---|
基本信息 | 名称 | - 长度 1-100 个字符
- 仅支持中文、大小写字母、数字开头
- 仅支持横线“-”及下划线“_”符号,不包含特殊字符
|
描述 | 描述信息,长度 0-200 个字符 |
任务类型 | 支持 Daft、Python 任务类型 说明 不同任务类型的任务配置项不同,详情请参见任务参数。 |
环境信息 | 镜像类型 | 支持内置镜像、自定义镜像和火山引擎镜像仓库中的镜像。 - 内置镜像
- LAS 内提供 Daft、Ray、Spark 等官方内置镜像
- 自定义镜像
- 支持 LAS 平台上构建的自定义镜像部署启动开发机
- 火山引擎镜像
|
镜像 | 必填,依据选择的镜像类型选择对应的镜像及版本 |
存储路径挂载 | - 支持TOS、 vePFS 文件系统挂载,用于存储需要访问的数据,或者持久化存储开发过程中的文件。
- 后续版本即将支持 NAS、HDFS 等存储介质的挂载。
|
高级参数 | 任务超时时长(单位分钟) | 关闭表示不设置,开启后运行超过设定时长将自动取消。 |
周期调度 | - 开启后,可按调度策略自动执行任务,支持一刻钟级、小时级、天级、周级、月级。
- 开始时间,设置定时任务的启用时点。
- 允许并发,默认允许;如果不允许并发,当周期调度时前一次任务未执行完毕,则跳过本次调度。
- 开启后,资源及运行参数为必填项必须完成。
|
网络连接 | - 开启后,可以打通所选择的资源队列到目标 VPC 的网络。
- 例如存储路径挂载 vePFS 文件系统,需选择文件系统所在的 VPC 网络。
|
- 任务创建完成后,按需手动执行或者根据配置的调度策略自动执行任务,您也可以基于工作流进行多任务的编排并运行工作流实现多任务的的提交执行。详见工作流。
- 执行任务需要配置任务所需资源以及运行参数。

- 任务提交后,每次任务执行会产生一条任务实例,您可以在任务实例中查看执行结果、日志以及Daft UI 提供的监控信息。
任务参数
分布式任务,适用于高效处理 AI 多模态数据等场景。

- 入口命令:任务文件路径。
- Daft 环境变量:填写
Key、Value字段。例如:Key输入框中填写APP_ENV,Value输入框中填写 PRODUCTION,在作业中可这样使用:import os; var = os.getenv("APP_ENV"),此时 var 的值为 PRODUCTION。 - 存储路径挂载:支持 vePFS、TOS 文件系统挂载,用于存储需要访问的数据,或者持久化存储开发过程中的文件。
说明
- 后续版本即将支持 NAS、HDFS 等存储介质的挂载。
- 存储挂载相关注意事项请参考存储挂载说明。
支持直接运行 Python 脚本及相关依赖,适用轻量级数据处理场景。

- 入口命令:任务文件路径。
- Python 作业参数:填写数据类型。
- Python 环境变量:填写字段
Key、Value - 存储路径挂载:支持 vePFS、TOS 文件系统挂载,用于存储需要访问的数据,或者持久化存储开发过程中的文件。
说明
- 后续版本即将支持 NAS、HDFS 等存储介质的挂载。
- 存储挂载相关注意事项请参考存储挂载说明。