干货|揭秘字节跳动对Apache Doris 数据湖联邦分析的升级和优化>火山引擎 EMR 作为一款云原生开源大数据平台产品,集成了包括 Hadoop、Spark、Flink 等引擎,并做到100%开源兼容。Doris 作为 OLAP 领域中一款极具代表性的开源组件,也被集成到了火山引擎 EMR 产品生态中。 > 本文... 其次介绍 Apache Doris 数据湖联邦分析的整体设计和相关特性,最后介绍 Apache Doris 在数据湖联邦分析上的未来规划。# 1. 湖仓一体架构演进回顾湖仓一体的发展史,主要经历了三个阶段。第一个阶段是数据仓库,第...
功能发布记录发布时间 版本号 主要更新 2023 年 7 月 13 日 v 1.7.1 提供 Hadoop HDFS/Hive 迁移工具,Hive 内部表类型,无缝迁移。 2023 年 5 月 16 日 v 1.7.0 支持数据冷热分层(廉价冷存储)、支持数据脱敏、支持查询血缘。 2023 年 2 月 23 日 v 1.6.0 支持队列定时扩缩容,支持内部表 UI 增删字段,支持自动构建物化视图,数据加密。 2022 年 11 月 08 日 v 1.5.0 支持 TTL 自动管理及删除数据,支持物化视图,支持队列权限审批流。 2022 年 8 ...
ELT in ByteHouse 实践与展望用户可以将数据导入后,通过自定义的SQL语句,在ByteHouse内部进行数据转换,而无需依赖独立的ETL系统及资源。 火山引擎ByteHouse是一款基于开源ClickHouse推出的云原生数据仓库,本篇文章将介绍ByteHouse团队如... **数据预计算流派**:如Kylin等。如果Hadoop系统中出报表较慢或聚合能力较差,可以去做一个数据的预计算,提前将配的指标的cube或一些视图算好。实际SQL查询时,可以直接用里面的cube或视图做替换,之后直接返回。...
使用说明Sqoop 使用说明 Apache Sqoop 是一款用于在 Hadoop 生态软件和结构化数据存储(例如关系型数据库)之间进行高效的海量数据传输的工具。 将 MySQL 数据导入 HDFSsqoop import --connect / --username --password --query --target-dir --split-by 参数解释: 参数 描述 dburi 数据库访问链接 dbname 数据库名称 username 数据库用户名 password 数据库密码 query-sql 数据库查询语句 hdfs-dir HDFS 写入目录 详细信息请参考Sqoop Use...
Hive SQL 底层执行过程 | 社区征文Hive 是数据仓库工具,再具体点就是一个 SQL 解析引擎,因为它即不负责存储数据,也不负责计算数据,只负责解析 SQL,记录元数据。Hive直接访问存储在 HDFS 中或者 HBase 中的文件,通过 MapReduce、Spark 或 Tez 执行... Hive 的主要组件与 Hadoop 交互的过程:在 Hive 这一侧,总共有五个组件:1. UI:用户界面。可看作我们提交SQL语句的命令行界面。...
EMR-2.0.0版本说明环境信息 系统环境版本 环境 OS veLinux(Debian 10兼容版) Python2 2.7.16 Python3 3.7.3 Java ByteOpenJDK 1.8.0_302 应用程序版本 Hadoop集群 Flume 1.9.0 OpenLDAP 2.4.58 Ranger 1.2.0 ZooKeeper 3.7.0 Flink ... Hive可使用TOS作为数据存储介质。 支持多种方式访问TOS:自定义配置方式配置AK/SK、环境变量配置AK/SK和对VEECSforEMRRole角色授权TOS访问权限 【组件】基于Ranger提供HDFS、YARN、Hive组件的权限访问控制。 已...
HDFS->LASFS Distcp操作手册本手册适用于从 IDC 或者本地机房的 Hadoop/CDH 集群,直接将 HDFS 拷贝数据到 LAS 上。数据传输到 LASFS 后,可以进一步进行外表创建,进行后续数据分析工作。 要使用该手册进行实际的数据迁移,需满足如下条件。 1. 前置条件 适用于客户已有 CDH/Hadoop 集群的数据迁移,需确保CDH集群可用接入公网。确保可以直接访问如下地址 las-fs-tunnel-cn-beijing.volces.com 的 80 端口,可以通过 telnet 工具访问上述地址。传输的实际速率取决...