新增 MongoDB 数据源,支持 Mongo to EMR hive 通道作业。 - 扩充 PG 数据同步能力,支持 PostgreSQL to EMR hive 通道作业。- **【优化** **数仓** **开发建表规范】** - 控制台智能市场优化,增加代码规范预检查页面,接入并支持数据地图组件。- **【数据研发体验增强】** - LAS SQL 任务支持对接 LAS Spark STS 模式,降低作业执行时冷启动的时间成本。 - 提交 LAS SQL 任务新增队列水位...
新增 MongoDB 数据源,支持 Mongo to EMR hive 通道作业。 - 扩充 PG 数据同步能力,支持 PostgreSQL to EMR hive 通道作业。- **【优化** **数仓** **开发建表规范】** - 控制台智能市场优化,增加代码规范预检查页面,接入并支持数据地图组件。- **【数据研发体验增强】** - LAS SQL 任务支持对接 LAS Spark STS 模式,降低作业执行时冷启动的时间成本。 - 提交 LAS SQL 任务新增队列水位...
新增 MongoDB 数据源,支持 Mongo to EMR hive 通道作业。 - 扩充 PG 数据同步能力,支持 PostgreSQL to EMR hive 通道作业。- **【优化** **数仓** **开发建表规范】** - 控制台智能市场优化,增加代码规范预检查页面,接入并支持数据地图组件。- **【数据研发体验增强】** - LAS SQL 任务支持对接 LAS Spark STS 模式,降低作业执行时冷启动的时间成本。 - 提交 LAS SQL 任务新增队列水位...
MongoDB 等;消息队列,例如 Kafka、RocketMQ 等;以及大数据生态系统的各种组件,例如 HDFS、Hive 和 ClickHouse 等。整个引擎支持三类同步模式——批式集成、流式集成和增量集成,能够覆盖离线、实时、全量、增量全场景的数据集成需求。* 批式集成模式基于 Flink Batch 模式打造,将数据以批的形式在不同系统中传输,目前支持了 20 多种不同数据源类型;* 流式集成模式主要是从 MQ 将数据导入到 Hive 和...
已支持的离线任务的输入数据源:Hive, MySQL, ClickHouse, Kafka, HttpAPI, 飞书, CSV/Excel, Oracle, Impala, PostgreSQL, Hbase, SQLServer, MaxCompute, ADB, MongoDB, Hana, Teradata, Db2, Vertica, GreenPlum等20几种主流的数据源 已支持数据清洗节点:字段设置、筛选行、添加计算列、聚合、连接、合并、行列转置等 已支持的AI建模能力:特征工程、机器学习、自然语言处理等多种算子 已支持输出内置数据源:以 Hive、Clic...
MongoDB 数据库配置优化 在新版本中,MongoDB 数据库新建连接时,支持用户配置认证库和多节点,增强了连接设置的灵活性和对复杂部署环境的支持。操作路径:数据准备-数据连接-选择”MongoDB“ 2.1.2 数据集新功能 【... 外部输出支持 Hive 新版本中,通过外部输出算子,支持将数据输出至 Hive 的外部存储系统。操作路径:数据准备-可视化建模-新建任务-外部输出 【优化】详情页预览优化 在新版本中,可视化建模详情页的数据预览得到了显...
离线任务支持输入的数据源为:Hive, MySQL, ClickHouse, Kafka, HttpAPI, 飞书, CSV/Excel, Oracle, Impala, PostgreSQL, Hbase, SQLServer, MaxCompute, ADB, MongoDB, Hana, Teradata, Db2, Vertica, GreenPlum等20余种主流的数据源; 本文将结合产品实操界面介绍 实时任务 的创建步骤。 2.使用限制 用户需具备 项目编辑 权限或者 可视化建模模块的新建任务 权限,才能使用该功能。 可视化建模中部分功能为 付费能力,如有需要...
MongoDB 等;消息队列,例如 Kafka、RocketMQ 等;以及大数据生态系统的各种组件,例如 HDFS、Hive 和 ClickHouse 等。整个引擎支持三类同步模式——批式集成、流式集成和增量集成,能够覆盖离线、实时、全量、增量全场景的数据集成需求。* 批式集成模式基于 Flink Batch 模式打造,将数据以批的形式在不同系统中传输,目前支持了 20 多种不同数据源类型;* 流式集成模式主要是从 MQ 将数据导入到 Hive 和...
MongoDB ✅ ✅ ✅ ✔️ NoSQL ElasticSearch ✅ ✅ ✅ ✅ NoSQL Redis ✅ ✅ ✔️ 消息队列 Kafka ✅ ✅ ✅ 消息队列 BMQ ✅ ✅ 消息队列 RocketMQ ✅ 日志服务 TLS ✅ TLS 数据源读取时: 离线支持到 Hive、ByteHOuse_CDW、LAS、MaxCompute 目标端 全域集成 DataSail ✅ CDC 解决方案支持的通道和企业级能力一键配置解决方案,支持自动建表,先全量同步,后增量同...
离线任务支持输入的数据源为:Hive, MySQL, ClickHouse, Kafka, HttpAPI, 飞书, CSV/Excel, Oracle, Impala, PostgreSQL, Hbase, SQLServer, MaxCompute, ADB, MongoDB, Hana, Teradata, Db2, Vertica, GreenPlum等20余种主流的数据源; 本文将结合产品实操界面介绍 离线任务 的创建步骤。 2.使用限制 用户需具备 项目编辑 权限或者 可视化建模模块的新建任务 权限,才能使用该功能。 可视化建模中部分功能为 付费能力,如有需要...
DataX 是开源的一个异构数据源离线同步工具,致力于实现包括关系型数据库(MySQL、Oracle 等)、HDFS、Hive、ODPS、HBase、FTP 等各种异构数据源之间稳定高效的数据同步功能。DataX 作为数据同步框架,它将不同数据源的... 2 数据准备 2.1 MySQL数据准备:sql --创建表create table mysql_mongodb( id int unsigned auto_increment, name varchar(400) not null, address varchar(400) not null, cre...
现在也支持添加外部 EMR Hive Catalog。 新增 区分流批任务配置 根据任务类型自动区分任务配置参数。 优化 2023年10月功能名称 功能描述 功能类型 前端页面样式优化 优化产品概览页面。 提供常用项目便捷... MongoDB CDC、Postgres CDC、SQLServer CDC。 新增 2023年08月功能名称 功能描述 功能类型 支持任务失败自动拉起 任务运行过程中,如果出现异常导致整个任务运行失败,系统将根据配置的任务失败重试拉起策略尝...
thrift2 Hive 1.X、2.X、3.X Redis 所有版本 Elasticsearch 所有版本 Cassandra 3.X HDFS 所有版本 Impala 3.X Graphbase 6 Greenplum 5、6 Spark SQL(thrift) 1.x、2.x Spark SQL(RESTful) 1.x、2.x SSDB 所有版本 ArangoDB 3.4.9 Neo4j 4.2.0 OrientDB 3.1.6 Percona MongoDB 4.x、5.x 大数据 HBase(protobuf) 所有版本 HBase(thrift) thrift1、thrift2 Hive 1.X、2.X、3.X Cassandra ...