服务告警均可在云监控配置告警规则,同时可展示在告警中心页面。- 新增 Doris、StarRocks、Impala、Kudu、ClickHouse、Presto、Trino 组件监控指标**【更新 EMR 软件栈】**- 新增软件栈 3.2.1:Doris升级至1.2.1;Kafka升级至2.8.1;Hudi升级至0.12.2;Flink升级至1.16.0,引入StarRocks、Doris、HBase和ByteHouse Connector,支持MySQL Sink,优化多个配置,达到开箱即用;支持avro,csv,debezium-json和avro-confluent等格式;Pre...
服务告警均可在云监控配置告警规则,同时可展示在告警中心页面。- 新增 Doris、StarRocks、Impala、Kudu、ClickHouse、Presto、Trino 组件监控指标 **【更新 EMR 软件栈】**- 新增软件栈 3.2.1:Doris升级至1.2.1;Kafka升级至2.8.1;Hudi升级至0.12.2;Flink升级至1.16.0,引入StarRocks、Doris、HBase和ByteHouse Connector,支持MySQL Sink,优化多个配置,达到开箱即用;支持avro,csv,debezium-json和avro-confl...
HBase 中的表支持 Snappy 压缩;Hive,组件行为与开源保持一致,不再支持中文的表字段名;Doris,版本升级至1.1.5;Hudi,修复开源社区版本存在潜在数据丢失等问题。 - **新增** **EMR** **软件** **栈** **2.1.1:** Impala、Kudu、ClickHouse、Doris 等服务的核心组件接入告警管理;为 Oozie 系统用户赋予 HDFS 全路径、Hive 库表、YARN 队列等资源的权限;在 Ranger 中默认为系统用户配置 HDFS 等资源的权限。**说明文档链接*...
HBase 中的表支持 Snappy 压缩;Hive,组件行为与开源保持一致,不再支持中文的表字段名;Doris,版本升级至1.1.5;Hudi,修复开源社区版本存在潜在数据丢失等问题。 - **新增** **EMR** **软件** **栈** **2.1.1:** Impala、Kudu、ClickHouse、Doris 等服务的核心组件接入告警管理;为 Oozie 系统用户赋予 HDFS 全路径、Hive 库表、YARN 队列等资源的权限;在 Ranger 中默认为系统用户配置 HDFS 等资源的权限。**说明文档链接**...
2. 快速入门 2.1 从数据连接新建(1)进入火山引擎,点击进入到某个具体项目下,点击数据准备,在下拉列表找到数据连接,点击数据连接。(2)在页面中选择 HBase。(3)填写所需的基本信息,并进行测试连接,连接成功后点击保存。(4)确认数据连接的基本信息无误后即完成数据连接。(5)可使用该连接作为数据源去创建数据集:点击数据准备-->数据集,选择左上角「新建」按钮进行数据集的新建。(6)搜索或下拉已有连接,选择之前新建好的数据源。 2...
您可以根据业务量变动,灵活变更 HBase 实例的配置,包括水平扩容(即增加节点数)和垂直扩缩容(即升降节点规格)。 变配方案HBase 实例支持变更的配置项如下表。 变更类型 变更说明 变更影响 升配 Master 支持升级节点规格。 不支持增加节点数量,固定 2 个节点。 升级节点过程中,实例可能会出现 1~3 分钟的断连。请谨慎操作。建议在业务低峰期执行变配操作,并确保客户端配置了正确的重试机制。 Region Server 支持升级节点规格。...
(hbase.x1.medium)规格,仅 Region Server 节点支持 32 核 64GiB(hbase.x1.8xlarge) 规格。 规格码 CPU 和内存 按量计费(元/小时/节点) 包年包月(元/月/节点) hbase.x1.medium 2 核 4GiB 0.43 206.18 hbase.x1.large 4 核 8GiB 0.86 412.37 hbase.x1.2xlarge 8 核 16GiB 1.72 824.74 hbase.x1.4xlarge 16 核 32GiB 3.44 1649.47 hbase.x1.8xlarge 32 核 64GiB 6.87 3298.95 hbase.x2.large 4 核 16GiB 1.25 598.86 hbase.x2.2xla...
未开启登录认证获取 HBase 实例的 ZK 连接地址。具体操作步骤,请参见查看连接地址。 下载 HBase Shell 工具包。 说明 根据步骤 1 的方法进入目标 HBase 实例的连接管理页签,在页面右下方单击 HBase Shell 下载。 解压 HBase Shell 工具包,并修改 hbase-2.x/conf/hbase-site.xml 文件中的配置。 bash 解压 HBase Shell 工具包tar -zxvf hbase-shell-2.x-tar.gz 编辑 hbase-site.xml 文件vim hbase-2.x/conf/hbase-site.xml说...
未开启登录认证获取 HBase 实例的 ZK 连接地址。具体操作步骤,请参见查看连接地址。 下载 HBase Shell 工具包。 说明 根据步骤 1 的方法进入目标 HBase 实例的连接管理页签,在页面右下方单击 HBase Shell 下载。 解压 HBase Shell 工具包,并修改 hbase-2.x/conf/hbase-site.xml 文件中的配置。 bash 解压 HBase Shell 工具包tar -zxvf hbase-shell-2.x-tar.gz 编辑 hbase-site.xml 文件vim hbase-2.x/conf/hbase-site.xml说...
2. 快速入门 2.1 从数据连接新建(1)进入火山引擎,点击进入到某个具体项目下,点击数据准备,在下拉列表找到数据连接,点击数据连接。(2)在页面中选择 HBase Phoenix 。(3)填写所需的基本信息,并进行测试连接,连接成功后点击保存。(4)确认数据连接的基本信息无误后即完成数据连接。(5)可使用该连接作为数据源去创建数据集:点击数据准备-->数据集,选择左上角「新建」按钮进行数据集的新建。(6)搜索或下拉已有连接,选择之前新建好的数...
请参见申请 Thrift2 连接地址。 配置 Thrift2 地址来访问 HBase 实例。在您的业务代码中设置如下配置来连接实例。 说明 将代码中的 ${"HBase Thrift2 的连接地址"}, ${端口号} 替换为您 HBase 实例的 Thrift2 连接地址和端口号,您就可以使用如下示例代码来访问 HBase 实例。如下代码中包括了定义表、写入数据、读取数据的具体代码示例。 java package com.bytedance.hbase.example;import org.apache.hadoop.hbase.thrift2.ge...
1.6GB 1.8GB 日志数据 数据类型 原始数据 ZSTD 字典压缩 Snappy LZ4 日志数据 7.2GB 853MB 427MB 1.4GB 1.4GB 操作步骤使用字典压缩时,需要将 COMPRESSION 参数设置为 ZSTD_DICT,该参数为列族粒度控制。 说明 若只需要使用字典压缩,并没有其他特殊要求,仅设置 COMPRESSION 参数已经可以满足基本需求。若想要精准控制不同情况下使用不同压缩算法,表格数据库 HBase 版仍然保留了 COMPRESSION_COMPACT 参数的能力,即指定做 comp...
您需要先申请 Thrift2 连接地址,申请方法,请参见申请 Thrift2 连接地址。 在 Python 程序中下载并安装 HBase Thrift 模块。下载已编译好的 Thrift 文件(文件中包含了可供 Python 访问的 HBase Thrift 模块),并将其保存在已安装了 Thrift 服务的 ECS 实例或本地设备上。 bash 解压下载的 Thrift 文件tar -zxvf gen-py.tar.gz 进入 gen-py 目录cd gen-py 配置 Python 环境变量,来引用 HBase Thrift 模块。将上述 gen-py 目录下的...