作者|字节跳动消息队列研发工程师-雷丽媛上文我们了解了在字节跳动内部业务快速增长的推动下,经典消息队列 Kafka 的劣势开始逐渐暴露,在弹性、规模、成本及运维方面都无法满足业务需求。因此字节消息队列团队... 可以秒级将流量调度到健康节点恢复服务。### 数据存储模型在分层之后 **数据存储模型上的优势** ,主要体现在 BMQ 中,一个 Partition 的数据会和 Kafka 一样被切分为若干个 Segment,Kafka 中的这些 Segment ...
**Kafka 时代**在初期阶段,字节跳动使用 Apache Kafka 进行数据的实时处理和流转,Kafka 同样也在各大互联网公司的产品和大数据系统中得到了广泛的应用。![picture.image](https://p3-volc-c... **故障恢复**在实际运行 Kafka 的过程中,故障恢复是我们经常要考虑的问题。可以根据故障的机器数量将其分为 **单机故障** 和 **多机故障** 。![picture.image](https://p3-volc-community-sign.b...
在字节跳动内部业务快速增长的推动下,经典消息队列 Kafka 的劣势开始逐渐暴露,在弹性、规模、成本及运维方面都无法满足业务需求。因此字节消息队列团队研发了计算存储分离的云原生消息引擎 BMQ,在极速扩缩容及吞吐... 可以秒级将流量调度到健康节点恢复服务。**数据存储模型**在分层之后数据存储模型上的优势,主要体现在 BMQ 中,一个 Partition 的数据会和 Kafka 一样被切分为若干个 Segment,Kafka 中的这些 Segment 都会被...
# 背景字节跳动开发套件数据集成团队(DTS ,Data Transmission Service)在字节跳动内基于 Flink 实现了流批一体的数据集成服务。其中一个典型场景是 Kafka/ByteMQ/RocketMQ -> HDFS/Hive 。Kafka/ByteMQ/RocketMQ... HDFS 恢复服务。故障恢复后用户反馈 MQ dump 在故障期间有数据丢失,产出的数据与 MQ 中的数据不一致。收到反馈后我们立即进行故障的排查。下面先简要介绍一下 Flink Checkpoint 以及 MQ dump 写入流程,然后再介绍...
跨可用区部署可提高实例的可用性,本文档介绍使用跨可用区部署方式对于实例的影响。 注意事项使用跨可用区部署的 Kafka 实例前,应注意: 部署 Kafka 客户端的 ECS 和 Kafka 实例所在的可用区应尽量一致,避免故障域不... 但其中一个可用区的数据写入会在集群恢复后视为脏数据。为了避免出现脏数据,客户端的写入处理需要将 Ack 策略配置为 -1 或者 all,并且 minISR 副本数应大于一半最大副本数,例如 3 副本时应配置为 2 以上。在集群网...
更多原理请参考 HaKafka 引擎文档。 注意 建议 Kafka 版本满足以下条件,否则可能会出现消费数据丢失的问题,详见 Kafka 社区 Issue = 2.5.1 = 2.4.2 操作步骤 创建数据源在右上角选择数据管理与查询 > 数据导入 > 对应集群. 单击左侧选择 “+”,新建数据源。 配置数据源在右侧数据源配置界面,根据界面提示,依次输入以下信息:源类型:选择 Kafka 数据源类型 源名称:任务名称,和其他任务不能重名。 Kafka 代理列表: 填写对应的...
调用 DeleteGroup 删除消费组(ConsumerGroup)。 使用说明本接口会删除实例下的消费组,删除后不可恢复,请谨慎调用。 请求参数参数 参数类型 是否必选 示例值 说明 InstanceId String 是 kafka-cnngbnntswg1**** 待删除消费组所属的实例 ID。 GroupId String 是 my_group 待删除的消费组 ID。 响应参数无 示例请求示例JSON POST /?Action=DeleteGroup&Version=2022-05-01 HTTP/1.1Content-Type: application/jsonHo...
成功创建日志投递配置后,您可以在投递配置列表查看并管理 Kafka 投递配置,例如修改投递配置,暂停或启动日志投递等。 修改投递配置成功创建投递配置后,您可以在日志投递页面的投递配置列表中查看投递配置的基本信息... 说明 配置删除后不可恢复,请谨慎操作。 删除配置后,将停止日志投递,但是对已投递到 Kafka 实例中的数据无影响。 操作步骤如下: 登录日志服务控制台。 在左侧导航栏中单击日志项目管理。 找到指定的日志项目,单击...
本文介绍如何通过数据库传输服务 DTS 修改 Kafka 用户密码和删除消费组。 前提条件已新建内置中间件的消费组。具体操作,请参见新建消费组。 修改消费组密码登录 DTS 控制台。 在顶部菜单栏的左上角,选择项目和地域... 注意 任务删除后不能恢复,已执行的操作也不会执行回滚,请谨慎执行。 相关 APIAPI 描述 UpdateSubscriptionGroup 调用 UpdateSubscriptionGroup 接口修改消费组信息。 DeleteSubscriptionGroup 调用 DeleteSubsc...
调用DeleteTopic接口删除Kafka Topic。 使用说明本接口会删除实例下Topic的相关资源,Topic删除后不可恢复,请谨慎调用。 此接口的API Version为2018-01-01。 此接口的调用频率限制为20次/s,超出频率限制会报错“AccountFlowLimitExceeded”。 请求参数参数 参数类型 是否必选 示例值 说明 TopicName String 必选 my_topic 待删除Topic的名称。 InstanceId String 必选 kafka-****x 待删除Topic所属的实例ID。 响应参数null 示例请...
日志服务支持 Kafka 数据导入功能,本文档介绍从 Kafka 中导入数据到日志服务的操作步骤。 背景信息日志服务数据导入功能支持将 Kafka 集群的消息数据导入到指定日志主题。Kafka 数据导入功能通常用于业务上云数据迁... 删除日志导入任务之后不可恢复,请谨慎操作。 登录日志服务控制台。 在顶部导航栏中选择日志服务所在的地域。 在左侧导航栏中选择日志服务 > 日志项目管理,并单击指定的日志项目名称。 在左侧导航栏中单击日志接入...
消息队列 Kafka版在磁盘容量不足时,通过阈值策略管理保证服务的可用性。Kafka 实例支持自定义设置磁盘清理水位,且每个 Broker 的磁盘清理水位相同。如果实例整体磁盘使用率达到清理水位,或因数据不均衡导致某个 Broker 的磁盘使用率达到清理水位时,无论消息是否超过消息保留时长,都会按服务端存储消息的时间先后顺序删除该节点的部分历史消息,直至磁盘水位恢复,避免磁盘使用率过高导致 Kafka 实例异常,以及避免因节点无法同步数据...
可以直接通过 Kafka 流式传输数据。数据导入任务将自动运行,持续读取日志主题中的日志数据,并将其写入到指定的数据库表中。消费日志时,支持仅消费其中的部分字段,并设置最大消息大小等配置。同时您可以随时停止数据导入任务以减少资源使用,并在任何必要的时候恢复该任务。ByteHouse 将在内部记录 offset,以确保停止和恢复过程中不会丢失数据。 费用说明通过 ByteHouse 消费日志时,涉及日志服务读流量费用。推荐使用私网服务地址,...