CREATE DATABASE if not EXISTS online_database; USE online_database; CREATE TABLE table1 ( siteid INT DEFAULT '10', citycode SMALLINT, username VARCHAR(32) DEFAULT '', pv BIGINT SUM DEFAULT '0' ) AGGREGATE KEY(siteid, citycode, username) DISTRIBUTED BY HASH(siteid) BUCKETS 10;
注意
在设置资源队列时,必须启动网络配置相关功能,并且该队列所使用的 VPC 网络要与 Doris 实例所使用的 VPC 网络完全相同。只有这样,才能保证队列与 Doris 实例之间网络的兼容性和连通性,使得基于该队列的任务能够顺利访问 Doris 实例。
说明
建议关闭全局跨 VPC 路由功能,仅在需要访问 doris 的任务中添加set serverless.cross.vpc.access.enabled=true;
参数打通网络。
CREATE DATABASE IF NOT EXISTS ss_wr2sr;
命令创建数据库 ss_wr2sr。CREATE TABLE if not exists ss_wr2sr.ss_table1( `siteid` int, `citycode` SMALLINT, `username` string, `pv` BIGINT ); CREATE TABLE if not exists ss_wr2sr.ss_table2( `siteid` int, `citycode` SMALLINT, `username` string, `pv` BIGINT );
通过 Serverless Spark 对 Doris 数据表进行读写。
进入 EMR Serverless 作业编辑页面,输入下列 SQL 代码块中示例的 Spark SQL 语句,点击作业编辑页面左下角的运行按钮,执行 SQL 作业。
-- 填写 jar 依赖包的 TOS 地址 set las.spark.jar.depend.jars = [{"fileName":"{dependency jar address}"}]; --可选参数,设置Spark SQL默认目录 set spark.sql.catalog.{your_catalog_name}=org.apache.doris.spark.catalog.DorisTableCatalog; set spark.sql.catalog.{your_catalog_name}.doris.fenodes={fe_ip:fe_http_port}; set spark.sql.catalog.{your_catalog_name}.doris.query.port=9030; set spark.sql.catalog.{your_catalog_name}.doris.user={user name}; set spark.sql.catalog.{your_catalog_name}.doris.password={user password}; show databases; SELECT * FROM {your_catalog_name}.online_database.table1; INSERT INTO {your_catalog_name}.online_database.table1 select * from db.table;
通过 Serverless Spark 读 Doris 数据表,写 Hive 数据表。
登录 EMR Serverless 作业编辑页面,输入下列 SQL 代码块中示例的 Spark SQL 语句,点击作业编辑框左下角的运行按钮,执行 SQL 作业。
-- 填写 jar 依赖包的 TOS 地址 set las.spark.jar.depend.jars = [{"fileName":"{dependency jar address}"}]; set spark.sql.catalog.{your_catalog_name}=org.apache.doris.spark.catalog.DorisTableCatalog; set spark.sql.catalog.{your_catalog_name}.doris.fenodes={fe_ip:fe_http_port}; set spark.sql.catalog.{your_catalog_name}.doris.query.port=9030; set spark.sql.catalog.{your_catalog_name}.doris.user={user name}; set spark.sql.catalog.{your_catalog_name}.doris.password={user password}; INSERT into ss_wr2sr.ss_table1 SELECT * FROM {your_catalog_name}.online_database.table1;
通过 Serverless Spark 读 Hive 数据表,写入 Doris 数据表。
登录 EMR Serverless 作业编辑页面,输入下列 SQL 代码块中示例的 Spark SQL 语句,点击作业编辑框左下角的运行按钮,执行 SQL 作业。
-- 填写 jar 依赖包的 TOS 地址 set las.spark.jar.depend.jars = [{"fileName":"{dependency jar address}"}]; set spark.sql.catalog.{your_catalog_name}=org.apache.doris.spark.catalog.DorisTableCatalog; set spark.sql.catalog.{your_catalog_name}.doris.fenodes={fe_ip:fe_http_port}; set spark.sql.catalog.{your_catalog_name}.doris.query.port=9030; set spark.sql.catalog.{your_catalog_name}.doris.user={user name}; set spark.sql.catalog.{your_catalog_name}.doris.password={user password}; INSERT into {your_catalog_name}.online_database.table1 SELECT * FROM ss_wr2sr.ss_table2;
更多示例和参数请参考 Doris 社区文档。
请从 Doris 社区文档下载依赖的 spark-doris-connector 包,并上传到对应火山 TOS 路径。