Connection to node -1 (kafka-xxxxxx.kafka.volces.com/xxx.xxx.xx.xx:9492) terminated during authentication. This may happen due to any of the following reasons: (1) Authentication failed due to inva... Firewall blocking Kafka TLS traffic (eg it may only allow HTTPS traffic), (3) Transient network issue. (org.apache.kafka.clients.NetworkClient)```出现此报错,建议检查您的客户端 IP 是否在白名单中,...
# **问题现象**如何通过修改 Logstash 配置文件,实现通过 Kafka 协议消费日志到其他业务系统。# 问题分析TLS 日志服务支持通过 Logstash 消费日志数据,您可以通过配置 Logstash 服务内置的 logstash-input-kafka 插件获取日志服务中的日志数据。# 解决方案## 1.安装 logstash1.1 [下载安装包](https://www.elastic.co/cn/downloads/logstash)。1.2 解压安装包到指定目录。1.3 查看logstash 版本```Java[root@lxb-jms ...
通过自研的 LogCollector/SDK/API,可支持专有协议、 OpenTelemetry 和 Kafka 协议上传日志。支持多种类型的终端、多种开发语言以及开源生态标准协议。采集到的日志首先会存入高速缓冲集群,削峰填谷,随后日志会匀速流入存储集群,根据用户配置再流转到数据加工集群进行日志加工,或者到索引集群建立索引。 建立索引后用户可以进行实时查询和分析。TLS 提供标准的 Lucene 查询语法、SQL 92 分析语法、可视化仪表盘以及丰富的监控...
虚拟机和容器上,应用的上云和跨云迁移可以通过迁移物理机、虚拟机和容器实现应用的迁移。### 云主机迁移 主机迁移服务是一种P2V/V2V迁移服务,可以帮您把X86物理服务器或者私有云、公有云平台上的虚拟机迁移到... 支持日志服务历史归档数据和实时数据的迁移 - TLS的数据恢复支持指定时间点的数据### 消息队列:Kafka > 您也可以参考[Kafka业务迁移](https://www.volcengine.com/docs/6439/120440),将自建 Kafka 集群或其他...
# **问题现象**如何通过修改 Logstash 配置文件,实现通过 Kafka 协议消费日志到其他业务系统。# 问题分析TLS 日志服务支持通过 Logstash 消费日志数据,您可以通过配置 Logstash 服务内置的 logstash-input-kafka 插件获取日志服务中的日志数据。# 解决方案## 1.安装 logstash1.1 [下载安装包](https://www.elastic.co/cn/downloads/logstash)。1.2 解压安装包到指定目录。1.3 查看logstash 版本```Java[root@lxb-jms ...
调用 DescribeKafkaConsumer 查看指定日志主题的 Kafka 消费功能状态。 使用说明此接口调用频率限制为 20 次/s,超出频率限制会报错 ExceedQPSLimit。 请求说明请求方式:GET 请求地址:https://tls-{Region}.ivolces... Kafka 协议消费功能。 true:已开启。 false:未开启。 ConsumeTopic String out-0fdaa6b6-3c9f-424c-8664-fc0d222c**** Kafka 协议消费主题 ID,格式为 out+日志主题 ID。通过 Kafka 协议消费此日志主题中的日志数据...
可以将日志主题作为 Kafka 的 Topic 进行消费,每条日志对应一条 Kafka 消息。通过 Kafka 协议消费日志具体方式和配置请参考通过 Kafka 协议消费日志。此接口调用频率限制为 20 次/s,超出频率限制会报错 ExceedQPSLimit。 说明 消费日志时会产生私网或公网的读流量。价格信息请参考计费指引。 关闭 Kafka 协议消费功能 2 分钟后,才能再次开启该功能。 请求说明请求方式:PUT 请求地址:https://tls-{Region}.ivolces.com/OpenKafka...
成功创建日志投递配置后,您可以在投递配置列表查看并管理 Kafka 投递配置,例如修改投递配置,暂停或启动日志投递等。 修改投递配置成功创建投递配置后,您可以在日志投递页面的投递配置列表中查看投递配置的基本信息... 在Kafka 投递配置页签中找到指定的投递配置,并在其对应的投递状态列开启或关闭此配置。 查看日志投递状态日志投递功能对应的任务执行进度与状态均以日志形式记录在服务日志中,您可以在名为 tls_service-project ...
本文介绍了时序数据流官方模板。时序数据流模板表示从设备实例或视频数据流实例获取时序数据并执行一系列 SQL 语句,然后将处理结果推送到虚拟时序设备或 Kafka 服务器。 基本信息您可以在边缘智能控制台的官方模板... Kafka 服务器启用的 SASL 认证的类型。取值: none plain scram-256 scram-512 sasl-username String 否 SASL 认证使用的用户名。 sasl-password String 否 SASL 认证使用的密码。 enable-tls Boolean 否...
ByteHouse(云数仓版)支持通过 Kafka 流式传输数据。本文档介绍如何将日志服务中的日志数据通过 Kafka 协议消费到 ByteHouse。 背景信息日志服务支持通过 Kafka 协议消费指定日志主题中的日志数据,例如消费到 ByteH... 选择数据源类型为 Kafka 数据流。 填写 Kafka 源的基本信息。 配置 说明 源名称 Kafka 数据源的名称。 Kafka 代理列表 IP 地址 初始连接的集群地址。格式为服务地址:端口号,例如 tls-cn-beijing.ivolces.c...
日志服务提供 Kafka 协议消费功能,您可以使用 Spark Streaming 的 spark-streaming-kafka 组件对接日志服务,通过 Spark Streaming 将日志服务中采集的日志数据消费到下游的大数据组件或者数据仓库。 场景概述Spark... java // 构建SparkStreaming上下文SparkConf conf = new SparkConf().setAppName("TlsDemo").setMaster("local").set("spark.serializer", "org.apache.spark.serializer.KryoSerializer");conf.registerKryoClas...
调用 CloseKafkaConsumer 关闭指定日志主题的 Kafka 协议消费功能。 使用说明停止消费后,您可以调用此接口关闭 Kafka 协议消费功能。此接口调用频率限制为 20 次/s,超出频率限制会报错 ExceedQPSLimit。 请求说明请求方式:PUT 请求地址:https://tls-{Region}.ivolces.com/CloseKafkaConsumer 请求参数下表仅列出该接口特有的请求参数和部分公共参数。更多信息请见公共参数。 Body参数 类型 是否必选 示例值 描述 TopicId String ...
日志服务针对每个导入任务记录一次数据导入的运行和导入细节信息。 数据导入错误日志 TOS 数据导入 Kafka 数据导入 tls_import-task 仅在 TOS 或 Kafka 数据导入任务运行过程中遇到异常或故障时才会上报,每个... 此时您无需关注 ErrorCode 和 ErrorMessage 信息。 StatusCode 为其他值表示投递失败,此时您可以通过 ErrorCode 和 ErrorMessage 查看投递失败的详细信息。 ErrorCode:错误码,表示失败的原因类型。 ErrorMessage:...