ByteHouse 是一款火山引擎云原生数据仓库,为您提供极速分析体验,能够支撑实时数据分析和海量数据离线分析等场景。
DataSail 中的 ByteHouse 云数仓版数据源配置,为您提供读取和写入 ByteHouse 的双向通道数据集成能力,实现不同数据源与 ByteHouse 之间进行数据传输。
本文为您介绍 DataSail 的 ByteHouse 云数仓版的任务配置操作。
配置 ByteHouse 云数仓版任务前,您需先进行以下操作:
ByteHouse CDW Reader:
数据类型 | 是否支持 |
|---|---|
| 支持 |
Float64 | 支持 |
Decimal | 支持 |
Date | 支持 |
datetime | 支持 |
String | 支持 |
Enum8 | 支持 |
Array | 支持单层 Array 类型,不支持 Array 的嵌套类型 |
ByteHouse CDW Writer:
数据字段类型 | 支持情况 |
|---|---|
Int | 支持 |
Uint | 支持 |
Float | 支持 |
String | 支持 |
Time | 支持 |
Array | 支持单层 Array 类型,不支持 Array 的嵌套类型 |
Map | 支持 |
BitMap64 | 支持 |
JSONB | 支持 |
ByteHouse 云数仓版(ByteHouse_CDW)数据源测试连通性成功后,进入到数据开发界面,开始新建 ByteHouse 相关通道任务。
新建任务方式详见离线数据同步。
任务创建成功后,您可根据实际场景,配置 ByteHouse_CDW 批式读或 ByteHouse_CDW 批式写等通道任务。
数据来源选择 ByteHouse_CDW,并完成以下相关参数配置:
其中参数名称前带 * 的为必填参数,名称前未带 * 的为可选填参数。
参数 | 说明 |
|---|---|
*数据源类型 | 下拉选择 ByteHouse_CDW 数据源类型。 |
*数据源名称 | 已在数据源管理中注册成功的 ByteHouse_CDW 数据源,下拉可选。 |
*数据表 | 选择需要采集的数据表名称信息,目前单个任务只支持将单表的数据采集到一个目标表中。 |
数据过滤 | 支持您将需要同步的数据进行筛选条件设置,只同步符合过滤条件的数据,可直接填写关键词 where 后的过滤 SQL 语句且无需填写结束符号(;),例如:create_time > '${date}',表示只同步 create_time 大于等于 ${date} 的数据,不需要填写 where 关键字。 说明 该过滤语句通常用作增量同步,暂时不支持 limit 关键字过滤,其 SQL 语法需要和选择的数据源类型对应。 |
*切分建 | 根据源数据表中的某一列作为切分键,建议使用主键或有索引的列作为切分键。 说明 目前仅支持类型为整型或字符串的字段作为切分建。 |
数据来源选择 ByteHouse_CDW,并完成以下相关参数配置:
其中参数名称前带 * 的为必填参数,名称前未带 * 的为可选填参数。
参数 | 说明 |
|---|---|
*目标类型 | 数据去向目标类型选择 ByteHouse_CDW。 |
*数据源名称 | 已在数据源管理界面注册的 ByteHouse_CDW 数据源,下拉可选。 |
*数据表 | 数据源下所属需数据写入的表名,下拉可选。
注意
|
*生命周期 | 展示所选目标数据表的生命周期。 |
*写入方式 | 支持选择 CFS、JDBC 方式写入:
注意
|
*分区设置 | 根据所选数据表,自动获取表分区字段信息。 分区内容可设置具体时间分区粒度,可以用表达式:${date}、${hour}等参数变量表示;也支持写入动态分区类型,即根据源端字段值内容,进行动态写入,动态分区值必须存在于源端 Columns 中。 说明
|
写入前准备语句 | 当写入方式为 JDBC 时: |
写入后准备语句 | 当写入方式为 JDBC 时: |
数据来源选择 ByteHouse_CDW,并完成以下相关参数配置:
其中参数名称前带 * 的为必填参数,名称前未带 * 的为可选填参数。
参数 | 说明 |
|---|---|
*目标类型 | 数据去向目标类型选择 ByteHouse_CDW。 |
*数据源名称 | 已在数据源管理界面注册的 ByteHouse_CDW 数据源,下拉可选。 |
*数据表 | 数据源下所属需数据写入的表名,下拉可选。
|
*生命周期 | 展示所选目标数据表的生命周期。 |
*写入方式 | 支持选择 CFS、JDBC 方式写入, 注意 JDBC 写入方式,必须在数据源配置时,填写 ByteHouse CDW 中正常状态的 API Token 信息。详见4.1 数据源注册。 |
*分区设置 | 根据所选数据表,自动获取表分区字段信息。 分区内容可设置具体时间分区粒度,可以用表达式:${date}、${hour}等参数变量表示;也支持写入动态分区类型,即根据源端字段值内容,进行动态写入,动态分区值必须存在于源端 Columns 中。 说明
|
数据来源和目标端配置完成后,需要指定来源和目标端的字段映射关系,根据字段映射关系,数据集成任务将源端字段中的数据,写入到目标端对应字段中。
字段映射支持选择基础模式和转换模式配置映射:
注意
基础模式和转换模式不支持互相切换,模式切换后,将清空现有字段映射中所有配置信息,一旦切换无法撤销,需谨慎操作。
转换模式:
字段映射支持数据转换,您可根据实际业务需求进行配置,将源端采集的数据,事先通过数据转换后,以指定格式输入到目标端数据库中。
转换模式详细操作说明详见4.1 转换模式
在转换模式中,你可依次配置:来源节点、数据转换、目标节点信息:
配置节点 | 说明 |
|---|---|
来源节点 | 配置数据来源 Source 节点信息:
配置完成后,单击确认按钮,完成来源节点配置。 |
数据转换 | 单击数据转换右侧添加按钮,选择 SQL 转换方式,配置转换信息和规则:
配置完成后,单击确认按钮,完成数据转换节点配置。SQL 脚本示例详见4.1.2 添加转换节点。 |
目标节点 | 配置目标节点 Sink 信息:
配置完成后,单击确认按钮,完成目标节点配置。 |
基础模式:
您可通过以下三种方式操作字段映射关系:
说明
自动添加字段映射时,默认不会映射来源表中的分区键字段。若有需要,您可通过手动添加的方式,将分区键字段的映射配置上。
说明
来源端字段信息支持输入数据库函数和常量配置,单击手动添加按钮,在源表字段中输入需添加的值,并选择函数或常量类型,例如:
ByteHouse_CDW 数据源支持使用脚本模式(DSL)的方式进行配置。
在某些复杂场景下,或当数据源类型暂不支持可视化配置时,您可通过任务脚本的方式,按照统一的 Json 格式,编写 ByteHouse_CDW Reader 和 ByteHouse_CDW Writer 参数脚本代码,来运行数据集成任务。
进入 DSL 模式操作流程,可详见 MySQL 数据源-4.4.1 进入DSL 模式。
进入 DSL 模式编辑界面后,您可根据实际情况替换相应参数,ByteHouse_CDW 批式读脚本示例如下:
// 变量使用规则如下: // 1.自定义参数变量: {{}}, 比如{{number}} // 2.系统时间变量${}, 比如 ${date}、${hour} // ************************************** { "version": "0.2", "type": "batch", // reader config "reader": { // [required] datasource type "type": "clickhouse" , // [optional] datasource id, set it if you have registered datasource "datasource_id": null, // [required] user parameter "parameter": { "clickhouse_type":"bytehouse_cdw", "sql_filter":"date = '20230921' ", "split_field":"id", "password":"*******", "db_name":"db_test", "vw_name":"dts_test", //"user_name":"default", "class":"com.bytedance.bitsail.connector.clickhouse.source.ClickhouseSource", "jdbc_url":"bytehouse-cn-beijing.volces.com:19000", "table_name":"table_name_test", "columns": [ { "upperCaseName":"ID", "name":"id", "type":"Int64" }, { "upperCaseName":"NAME", "name":"name", "type":"String" } ] } }, // writer config "writer": { ... }, // common config "common": { ... } }
Reader 参数说明,其中参数名称前带 * 的为必填参数,名称前未带 * 的为可选填参数:
参数名 | 参数说明 | 示例 |
|---|---|---|
*type | 数据源类型,对于 ByteHouse 类型,填写:clickhouse | clickhouse |
*datasource_id | 目前 DSL 模式暂不支持以数据源 ID 的方式填写,此处默认为 null。 | |
*clickhouse_type | clickhouse数据源类型下,读取 ByteHouse 云数仓版数据源需设置为:bytehouse_cdw | bytehouse_cdw |
sql_filter | 同步数据的过滤条件,同步数据时只会同步符合过滤条件的数据,可选。 | |
*jdbc_url | ByteHouse_CDW 数据源连接的 jdbc 地址。 说明 因为 ByteHouse_CDW 侧网络限制,若实际场景中需要通过私网域名访问时,您可通过提工单的方式,联系 ByteHouse_CDW 支持同学操作,并将独享集成资源组中 VPC 中的 IPv4 CIDR 地址添加到 ByteHouse_CDW 数据库的白名单中。 | |
*vw_name | ByteHouse_CDW 中查询使用的计算组。如果在 ByteHouse 中设置了默认计算组就可以不明确指定。 | |
*password | 填写 Bytehouse CDW 账号下的 Access Key 信息:
| |
user_name | ByteHouse_CDW 中默认用户名default,可以不设置。 | |
*split_field | 根据源数据表中的某一列作为切分键,建议使用主键或有索引的列作为切分键: 说明 目前仅支持类型为整型或字符串的字段作为切分建。 | |
*class | bytehouse_cdw reader connector type,默认填写固定值:com.bytedance.bitsail.connector.clickhouse.source.ClickhouseSource | com.bytedance.bitsail.connector.clickhouse.source.ClickhouseSource |
*db_name | 填写需读取的数据库名称。 | |
*table_name | 输入需读取的数据表名字信息。 | |
*columns | 所配置的表中,需要同步的列名集合,使用 JSON 的数组描述字段信息。 |
进入 DSL 模式编辑界面后,您可根据实际情况替换相应参数,ByteHouse_CDW 批式写脚本示例如下:
// ************************************** // 变量使用规则如下: // 1.自定义参数变量: {{}}, 比如{{number}} // 2.系统时间变量${}, 比如 ${date}、${hour} // ************************************** { // [required] dsl version, suggest to use latest version "version": "0.2", // [required] execution mode, supoort streaming / batch now "type": "batch", // reader config "reader": { ... }, // writer config "writer": { // [required] datasource type "type": "bytehouse_cdw", // [optional] datasource id, set it if you have registered datasource "datasource_id": {datasource_id}, // [required] user parameter "parameter": { "columns": [ { "name": "id", "type": "String" } ], "ch_partition_type":"String", "shard_num":2, "shard_column":"id", "partition":"date=20240101", "ch_table":"table_test1" } }, // common config "common": { ... } }
批式写参数说明,其中参数名称前带 * 的为必填参数,名称前未带 * 的为可选填参数:
参数名 | 参数说明 |
|---|---|
*type | 数据源类型,对于 ByteHouse 类型,填写 bytehouse_cdw |
*datasource_id | 注册的 ByteHouse_CDW 数据源 ID。可以在项目控制台 > 数据源管理界面中查找。 |
*ch_table | 填写需要数据写入的 ByteHouse_CDW 表名称信息。 |
*columns | 需要同步的列名集合,使用 JSON 的数组描述字段信息。 |
ch_partition_type | ByteHouse_CDW 表分区字段类型,多级分区需要英文逗号按顺序分割,非分区表可不填写。 |
partition | ByteHouse_CDW 分区,key=value 格式,多级分区需要英文逗号按顺序分割,非分区表可不填写。 |
*shard_num | 分片数量,用于任务分片处理,建议和任务并发设置一致。 |
*shard_column | 分片字段,建议使用 ByteHouse_CDW 表主键字段信息。 |
对于通道任务,读参数需要加上 job.reader. 前缀,写参数需要加上 job.writer. 前缀,如下图所示:
对于 DSL 任务,读参数请配置到 reader.parameter 下,写参数请配置到 writer.parameter 下,直接输入参数名称和参数值,如:"job.writer.loading_mode":"FULL_REFRESH"
读取 ByteHouse_CDW 时,支持以下高级参数,您可根据实际情况进行配置:
参数名 | 描述 | 默认值 |
|---|---|---|
job.reader.split_config | 设置任务分片数量配置参数。 | 分片数是和并发数相同 |
job.reader.string_split_size | 设置分片大小。
| 1000000 |
job.reader.customized_connection_properties | 读取 ByteHouse 超时设置参数。 | |
job.reader.output_null_value | ByteHouse CDW 中读取 Nullable(T) 类型的数据时,没有具体值的行将默认读取返回为 | true |
job.reader.use_local_split | 读取 ByteHouse CDW/CE 数据时,若配置的切分键中包含空值时,可以使用该高级参数 job.reader.use_local_split=true,避免数据丢失或数据重复情况。 | 无 |
批式写入 ByteHouse_CDW 时,支持以下高级参数,您可根据实际情况进行配置:
参数名 | 描述 | 默认值 |
|---|---|---|
job.writer.flush_interval | 写入 buffer 的刷新时间,默认 60000 毫秒 | 60000 |
job.writer.buffer_count | 写入 buffer 记录条数,默认 8192 | 8192 |
job.writer.query_timeout | 设定查询超时退出时间,默认 30000 毫秒 | 30000 |
job.writer.skip_delete_task | 写入 ByteHouse CDW 是通过导入任务方式,默认任务执行完,再删除导入任务,通过此参数,您可设置是否跳过删除导入任务 ; | false |
job.writer.cfs_write_batch_size |
说明 该高级参数,需配合 CFS 写入方式进行使用。 | 4096/8192 |
job.writer.cfs_vw_id | 当选择 CFS 方式写入 ByteHouse 云数仓版数据,且当默认计算组可用资源较少时,可通过在自定义参数设置中添加该高级参数,指定数据导入服务使用其他的计算组信息。格式如下: | 无 |
job.writer.bh_ce_partition_type | 显示的指定 ByteHouse 的分区字段为 string 类型,当分区字段使用函数时,需要使用此高级参数函数。 | string |
job.writer.loading_mode | 高级参数 job.writer.loading_mode 可设置为 FULL_REFRESH 或 INCREMENTAL,默认为 INCREMENTAL:
说明 该高级参数,需配合 CFS 写入方式进行使用。 | INCREMENTAL |
job.writer.extraProperties | 添加此参数,数据导入 ByteHouse CDW 时,支持原子性导入数据。 | 无 |
job.writer.bh_connection_properties | Map<String,String> 类型。 说明 该高级参数,需配合 JDBC 写入方式进行使用。 | 无 |
job.writer.session_properties | Map<String,String> 类型。 | 无 |
job.writer.pre_sql_list | 写入 ByteHouse CDW 数据源前置处理 SQL List ,格式是 json 数组,多条执行语句可用逗号分隔。如: 说明 该高级参数,需配合 JDBC 写入方式进行使用。 | 无 |