> 本文结构采用宏观着眼,微观入手,从整体到细节的方式剖析 Hive SQL 底层原理。第一节先介绍 Hive 底层的整体执行流程,然后第二节介绍执行流程中的 SQL 编译成 MapReduce 的过程,第三节剖析 SQL 编译成 MapReduce 的具体实现原理。### 一、HiveHive是什么?Hive 是数据仓库工具,再具体点就是一个 SQL 解析引擎,因为它即不负责存储数据,也不负责计算数据,只负责解析 SQL,记录元数据。Hive直接访问存储在 HDFS 中或者 HBase ...
HBase,日志服务,Kafka 数据存储 - Yarn,Flink 的计算框架平台数据 - Spark,MapReduce 的计算相关数据存储![]()# **字节跳动特色的** **HDFS** **架构**在深入相关的技术细节之前,我们先看看字节跳动的 HDFS 架构。## **架构介绍** 字节跳动 HDFS 架构 ### **接入层**接入层是字节版 HDFS 区别于社区版本最大的一层,社区版本中并无这一层定义。在字节跳动的落地实践中,由于集群的节点过于庞大,我们需要非常多的 N...
包含一组记录的所有版本必然在同一个 File Group 中。> > 在本文中,我们将重点介绍 Hudi 索引机制相关的作用和原理,以及优化实践。 DATA **Hudi索引的作用与类型**------------------... 默认的索引方式 包含在数据文件的footer中。默认配置,不依赖外部系统,数据和索引保持一致性 || **HBase Index** | 维护每一个 Record Key 的 Partition Path 和 File Group,在插入 File Group定位阶段所有 ...
包含一组记录的所有版本必然在同一个 File Group 中。在本文中,我们将重点介绍 Hudi 索引机制相关的作用和原理,以及优化实践。 # 1. **Hudi索引的作用与类型**## 1.1 索引的作用在传统 Hive 数仓的场景下... 默认的索引方式 包含在数据文件的footer中。默认配置,不依赖外部系统,数据和索引保持一致性 || **HBase Index** | 维护每一个 Record Key 的 Parti...
表格数据库 HBase 版默认提供了 ZK 连接地址,同时也支持 Thrift 多语言访问,Thrift 是 HBase 标准版实例中的一种服务组件,基于 Apache Thrift(多语言支持的通信框架)开发。本文介绍基于 Java 程序通过 Thrift2 地址... import org.apache.hadoop.hbase.thrift2.generated.TPut;import org.apache.hadoop.hbase.thrift2.generated.TResult;import org.apache.hadoop.hbase.thrift2.generated.TScan;import org.apache.thrift.protoco...
表格数据库 HBase 版默认提供了 ZK 连接地址,同时也支持 Thrift 多语言访问,Thrift 是 HBase 标准版实例中的一种服务组件,基于 Apache Thrift(多语言支持的通信框架)开发。本文介绍基于 Python 程序通过 Thrift2 地址访问 HBase 实例的操作步骤。 前提条件如需通过私网地址访问 HBase 实例,需同时满足如下要求:已购 ECS 服务器与 HBase 实例在相同私有网络 VPC 下。ECS 服务器的购买方法,请参见购买云服务器。 已将 ECS 服务器的...
在本地业务代码中增加如下配置文件来访问实例。说明 您需要修改代码中 config.set 的如下配置: 用步骤 1 中获取的 ZK 地址替换代码中的 zkEndpoint:Port。 用目标 HBase 实例 ID 替换代码中的 HBase 实例 ID。您可... import org.apache.hadoop.hbase.client.Put;import org.apache.hadoop.hbase.client.Result;import org.apache.hadoop.hbase.client.ResultScanner;import org.apache.hadoop.hbase.client.Scan;import org.apach...
在本地业务代码中增加如下配置文件来访问实例。说明 您需要修改代码中 config.set 的如下配置: 用步骤 1 中获取的 ZK 地址替换代码中的 zkEndpoint:Port。 用目标 HBase 实例 ID 替换代码中的 HBase 实例 ID。您可... import org.apache.hadoop.hbase.client.Put;import org.apache.hadoop.hbase.client.Result;import org.apache.hadoop.hbase.client.ResultScanner;import org.apache.hadoop.hbase.client.Scan;import org.apach...
本文介绍表格数据库 HBase 版实例中监控告警支持的指标项及相关说明。 注意事项云监控默认每 30 秒 获取一次数据,但会根据查看监控数据时选择的查询时间范围,将获取的数据根据不同的周期和方式进行聚合展示,具体规... Scan 请求平均响应时间 μs Region Server 的 Scan 请求平均返回时间。 .custom-md-table th:nth-of-type(1) { width: 300px; } .custom-md-table th:nth-of-type(2) { ...
> 本文结构采用宏观着眼,微观入手,从整体到细节的方式剖析 Hive SQL 底层原理。第一节先介绍 Hive 底层的整体执行流程,然后第二节介绍执行流程中的 SQL 编译成 MapReduce 的过程,第三节剖析 SQL 编译成 MapReduce 的具体实现原理。### 一、HiveHive是什么?Hive 是数据仓库工具,再具体点就是一个 SQL 解析引擎,因为它即不负责存储数据,也不负责计算数据,只负责解析 SQL,记录元数据。Hive直接访问存储在 HDFS 中或者 HBase ...
HBase,日志服务,Kafka 数据存储 - Yarn,Flink 的计算框架平台数据 - Spark,MapReduce 的计算相关数据存储![]()# **字节跳动特色的** **HDFS** **架构**在深入相关的技术细节之前,我们先看看字节跳动的 HDFS 架构。## **架构介绍** 字节跳动 HDFS 架构 ### **接入层**接入层是字节版 HDFS 区别于社区版本最大的一层,社区版本中并无这一层定义。在字节跳动的落地实践中,由于集群的节点过于庞大,我们需要非常多的 N...
包含一组记录的所有版本必然在同一个 File Group 中。> > 在本文中,我们将重点介绍 Hudi 索引机制相关的作用和原理,以及优化实践。 DATA **Hudi索引的作用与类型**------------------... 默认的索引方式 包含在数据文件的footer中。默认配置,不依赖外部系统,数据和索引保持一致性 || **HBase Index** | 维护每一个 Record Key 的 Partition Path 和 File Group,在插入 File Group定位阶段所有 ...
包含一组记录的所有版本必然在同一个 File Group 中。在本文中,我们将重点介绍 Hudi 索引机制相关的作用和原理,以及优化实践。 # 1. **Hudi索引的作用与类型**## 1.1 索引的作用在传统 Hive 数仓的场景下... 默认的索引方式 包含在数据文件的footer中。默认配置,不依赖外部系统,数据和索引保持一致性 || **HBase Index** | 维护每一个 Record Key 的 Parti...