通过使用压缩,可以节省网络带宽和Kafka存储成本。type: stringdefault: nonevalid values: [none, gzip, snappy, lz4, zstd]importance: high [**retries**](url)生产者发送消息失败或出现潜在暂时性错误时,会进行的重试次数。type: intdefault: 2147483647valid values: [0, ..., 2147483647]importance: high [**batch.size**](url)当多条消息发送到一个分区时,producer 批量发送消息大小的上限 (...
文 | **洪剑**、**大滨** 来自字节跳动数据平台开发套件团队# 背景## 动机字节数据中台DataLeap的Data Catalog系统基于Apache Atlas搭建,其中Atlas通过Kafka获取外部系统的元数据变更消息。在开源版本中,每台... 其实只是简单的读取和处理,使用Flink有些“杀鸡用牛刀”了。另一个比较标准的方案是Kafka Streaming。作为Kafka官方提供的框架,对于流式处理的语义有较好的支持,也满足我们对于轻量的诉求。最终没有采用的主要考...
# 背景字节跳动开发套件数据集成团队(DTS ,Data Transmission Service)在字节跳动内基于 Flink 实现了流批一体的数据集成服务。其中一个典型场景是 Kafka/ByteMQ/RocketMQ -> HDFS/Hive 。Kafka/ByteMQ/RocketMQ... 能够提供 Exactly Once 或者 At Least Once 语义。Flink 通过在数据流中注入 barriers 将数据拆分为一段一段的数据,在不终止数据流处理的前提下,让每个节点可以独立创建 Checkpoint 保存自己的快照。每个 barri...
火山引擎ByteHouse技术专家以Kafka和物化MySQL两种实时导入技术为例,介绍了ByteHouse的整体架构演进以及基于不同架构的实时导入技术实现。# 架构整体的演进过程## 分布式架构概述ByteHouse是基于社区ClickHo... 配合Kafka low-level消费模式,可以完美解决用户实时导入唯一键场景需求。同时,ByteHouse云原生架构通过独立的事务实现,在实时导入上消费语义升级支持Exactly-Once,满足了部分用户对数据准确性的要求。这些改进使得...
提高吞吐量和压缩率。 该参数一般与 properties.batch.size、properties.buffer.memory 参数联合使用,满足任意一个条件都会立即发送消息。 说明 如果在写 Kafka 数据时出现吞吐量不足,建议您提升 linger.ms 取值,一般设置为 100ms。 properties.buffer.memory 否 32M string 缓存消息的总可用 Memory 空间,如果 Memory 用完,则会立即发送缓存中的消息。 设置时,建议按照计算公式设置:buffer.memory>=batch.size * partitio...
消息队列 Kafka版提供以下实例管理相关的常见问题供您参考。 FAQ 列表如何选择计算规格和存储规格 如何选择云盘 如何删除或退订实例 是否支持压缩消息? 是否支持多可用区部署 Kafka 实例? 单 AZ 实例如何切换为多 AZ? 变更实例规格或扩容实例会影响业务吗? 如何为实例增加分区? 是否可以删除分区? 为什么不能减少分区? 是否支持缩容? 公网环境必须使用 SASL_SSL 吗? 支持哪些语言的客户端? 支持的消息体最大是多少? 消息的保留时...
Kafka Topic 数量小于等于 500 时,日志服务会创建 2 个子任务。 数据导入配置数量 单个日志项目中,最多可创建 100 个不同类型的数据导入配置。 费用说明从 Kafka 导入数据涉及日志服务的写流量、日志存储等计费项。具体的价格信息请参考日志服务计费项。 计费项 说明 写流量 导入 Kafka 数据到日志服务时,涉及日志服务写流量费用。 日志存储 保存 Kafka 数据到日志服务后,后端会自动对其进行压缩,存储费用以压缩后的实...
日志服务支持投递日志到 Kafka 中,本文档介绍创建投递配置的操作流程。 前提条件已开通日志服务,并成功采集到日志数据。详细说明请参考快速入门。 已开通火山引擎消息队列 Kafka 版,并在指定日志主题的同一地域创建... 如果没有合适的 Kafka 实例,可以根据页面提示在 Kafka 控制台创建一个。 目标Topic 在下拉列表中选择数据源所在的日志主题。如果没有合适的 Kafka Topic,可以根据页面提示在 Kafka 控制台创建一个。 压缩类型 ...
本文介绍 Kafka 业务迁移的方案与基本流程。业务上云过程中,您可以参考本文档,将自建 Kafka 集群或其他云厂商 Kafka 集群平滑迁移至火山引擎消息队列 Kafka版。 背景信息消息队列 Kafka版是一款基于 Apache Kafka 构建的分布式消息中间件服务,具备高吞吐、高可扩展性等特性,提供流式数据的发布/订阅和多副本存储机制,广泛应用于日志压缩收集、流式数据处理、消息解耦、流量削峰去谷等应用场景。 在 Kafka 业务迁移过程中,只会迁移...
消息队列 Kafka版支持配置云监控告警规则,帮助您实时关注实例的运行状态。本文档介绍典型场景下的告警规则配置示例,建议参考这些推荐的告警策略,配置监控指标的告警规则。 实例维度 实例磁盘使用容量超过 85%告警规... 压缩策略为 LZ4。 如果确认非客户端问题导致的 CPU 占用率高,建议及时升级实例规格以便提高实例的各项处理性能。操作步骤请参考升级实例规格。处理后建议持续观测该指标,确认是否达到了预期效果。 内存使用率超...
Kafka 数据源为您提供实时读取和离线读写 Kafka 的双向通道能力,实现不同数据源与 Kafka 数据源之间进行数据传输。本文为您介绍 DataSail 的 Kafka 数据同步的能力支持情况。 1 支持的 Kafka 版本实时读、离线读写... job.writer.compression_type 消息压缩格式,支持 none、snappy、gzip、lz4 说明 DataSail 整库解决方案配置中,可指定消息压缩格式。 snappy job.common.skip_dump_parse Kafka 数据源通过公网形式接入,开启...
文 | **洪剑**、**大滨** 来自字节跳动数据平台开发套件团队# 背景## 动机字节数据中台DataLeap的Data Catalog系统基于Apache Atlas搭建,其中Atlas通过Kafka获取外部系统的元数据变更消息。在开源版本中,每台... 其实只是简单的读取和处理,使用Flink有些“杀鸡用牛刀”了。另一个比较标准的方案是Kafka Streaming。作为Kafka官方提供的框架,对于流式处理的语义有较好的支持,也满足我们对于轻量的诉求。最终没有采用的主要考...
火山引擎消息队列 Kafka版为您提供示例项目 Demo 供您快速接入和体验。本文介绍配置文件 config.json 的常用参数配置。 配置文件模板下载 Demo 并解压缩到本地后,在路径 {DemoPath}/config/config_templete.json 中... producer.batch.size 可选 16384 批量发送消息的大小。在客户端消息较大或者客户端消息发送较快时可考虑加大此值。 consumer.group.id 必选 grouptest 消费消息时,指定的消费组名称。建议取业务相关的名称...