语音端点检测模块 - 基于 FSMN VAD 的高效音频分割解决方案
iic/speech_fsmn_vad_zh-cn-16k-common-pytorch(中文通用 FSMN VAD)输入列名 | 说明 |
|---|---|
videos | 包含音频数据的列,支持以下格式: - audio_base64: base64 编码的音频字符串 - audio_url: 音频文件的 URL 路径 - audio_binary: 原始音频字节数据 |
包含语音端点时间戳的列,每个元素为二维浮点数列表,表示音频中各语音片段的起止时间戳(单位:秒),
例如:[[0.0, 4.34], [5.50, 7.12]]。若处理失败则为 None。
如参数没有默认值,则为必填参数
参数名称 | 类型 | 默认值 | 描述 |
|---|---|---|---|
audio_src_type | str | 音频格式类型 支持的音频格式类型,包含: - tos/http 地址(audio_url) - base64 编码(audio_base64) - 二进制流(audio_binary) 可选值:["audio_binary", "audio_url", "audio_base64"] | |
batch_size_s | int | 3600 | 批量计算的秒数 每批次处理的音频时长(秒),仅在使用GPU时生效。 默认值:3600 |
model_path | str | /opt/las/models | 模型路径 本地模型存储路径。 默认值:"/opt/las/models" |
model_name | str | iic/speech_fsmn_vad_zh-cn-16k-common-pytorch | 模型名称 使用的模型名称,包含: - iic/speech_fsmn_vad_zh-cn-16k-common-pytorch 可选值:["iic/speech_fsmn_vad_zh-cn-16k-common-pytorch"] 默认值:"iic/speech_fsmn_vad_zh-cn-16k-common-pytorch" |
model_revision | str | v2.0.4 | 模型版本 指定模型的版本号,包含: - v2.0.4 可选值:["v2.0.4"] 默认值:"v2.0.4" |
rank | int | 0 | 指定使用的GPU设备编号(多卡环境有效)。例如:0表示第一张GPU,1表示第二张GPU 默认值:None |
下面的代码展示了如何使用 daft 运行算子识别语音中的人声端点。
from __future__ import annotations import logging import os import ray import daft from daft import col from daft.las.functions.audio.audio_vad_fsmn import AudioVadFsmn from daft.las.functions.udf import las_udf if __name__ == "__main__": if os.getenv("DAFT_RUNNER", "ray") == "ray": def configure_logging(): logging.basicConfig( level=logging.INFO, format="%(asctime)s - %(name)s - %(levelname)s - %(message)s", datefmt="%Y-%m-%d %H:%M:%S.%s".format(), ) logging.getLogger("tracing.span").setLevel(logging.WARNING) logging.getLogger("daft_io.stats").setLevel(logging.WARNING) logging.getLogger("DaftStatisticsManager").setLevel(logging.WARNING) logging.getLogger("DaftFlotillaScheduler").setLevel(logging.WARNING) logging.getLogger("DaftFlotillaDispatcher").setLevel(logging.WARNING) import ray ray.init(dashboard_host="0.0.0.0", runtime_env={"worker_process_setup_hook": configure_logging}) daft.context.set_runner_ray() daft.set_execution_config(actor_udf_ready_timeout=600) daft.set_execution_config(min_cpu_per_task=0) tos_dir_url = os.getenv("TOS_DIR_URL", "las-cn-beijing-public-online.tos-cn-beijing.volces.com") samples = { "audio_path": [ f"https://{tos_dir_url}/public/shared_audio_dataset/参观八达岭长城。.wav" ] } model_path = os.getenv("MODEL_PATH", "/opt/las/models") model_name = "iic/speech_fsmn_vad_zh-cn-16k-common-pytorch" audio_src_type = "audio_url" batch_size_s = 3600 model_revision = "v2.0.4" rank = 0 df = daft.from_pydict(samples) df = df.with_column( "audio_vad_result", las_udf( AudioVadFsmn, construct_args={ "audio_src_type": audio_src_type, "model_path": model_path, "model_name": model_name, "model_revision": model_revision, "batch_size_s": batch_size_s, "rank": rank, }, num_gpus=1, batch_size=1, concurrency=1, )(col("audio_path")), ) df.show() # ╭────────────────────────────────┬─────────────────────╮ # │ audio_path ┆ audio_vad_result │ # │ --- ┆ --- │ # │ Utf8 ┆ List[List[Float32]] │ # ╞════════════════════════════════╪═════════════════════╡ # │ tos://las-cn-beijing-public-o… ┆ [[0.51, 2.8]] │ # ╰────────────────────────────────┴─────────────────────╯