API/SDK:直接在容器内使用 API 或 SDK 接口将日志采集到后端。以上前三种采集方案都只支持采集容器的标准输出,第四种方案需要改造业务代码,这几种方式对采集容器文件都不友好。但用户对于日志文件有分类的需求... 面对各种日志源,TLS 通过自研的 LogCollector/SDK/API,可支持专有协议、 OpenTelemetry 和 Kafka 协议上传日志。支持多种类型的终端、多种开发语言以及开源生态标准协议。采集到的日志首先会存入高速缓冲集群,削...
API/SDK:直接在容器内使用 API 或 SDK 接口将日志采集到后端。以上前三种采集方案都只支持采集容器的标准输出,第四种方案需要改造业务代码,这几种方式对采集容器文件都不友好。但用户对于日志文件有分类的需... 面对各种日志源,TLS 通过自研的 LogCollector/SDK/API,可支持专有协议、 OpenTelemetry 和 Kafka 协议上传日志。支持多种类型的终端、多种开发语言以及开源生态标准协议。采集到的日志首先会存入高速缓冲集群,削...
第四种方案需要改造业务代码,这几种方式对采集容器文件都不友好。但用户对于日志文件有分类的需求,标准输出将所有日志混在一起,不利于用户进行分类。如果用户要把所有日志都转到标准输出上,还需要开发或者配置,难以... 面对各种日志源,TLS 通过自研的 LogCollector/SDK/API,可支持专有协议、 OpenTelemetry 和 Kafka 协议上传日志。支持多种类型的终端、多种开发语言以及开源生态标准协议。采集到的日志首先会存入 **高速缓冲...
为了保证读写的效率,一般我们都会通过异步的方式来写数据,即先把数据写入内存,返回请求结果,然后再将数据异步写入。但是如果异步写入之前,系统宕机,会导致内存中的数据丢失。 **(write back)** 当系统出现故障重启... 所以系统故障的恢复:\- 检查点之前结束的事物不需要恢复(已经写入DB)\- 检查点之后结束或者正在发生的事务需要依据运行日志进行恢复(不能确定是否写回DB):**故障点结束前结束的重做,故障时刻未结束的撤销。=>重...
函数服务 veFaaS 日志按条写入日志服务 TLS,每条日志均为固定的 键:值 格式。下表为您介绍日志结构。 字段名称 字段类型 字段含义 __path__ text 日志采集的文件名,用户无需关心。 __source__ text 日志采集的源 IP,用户无需关心。 content text 日志内容。 function_id text 识别函数的唯一标识,取值为函数 配置 页签显示的 函数 ID。 function_name text 函数名称。 log_type text 日志输出类型,包括stdout和stderr。函数服务会...
API/SDK:直接在容器内使用 API 或 SDK 接口将日志采集到后端。以上前三种采集方案都只支持采集容器的标准输出,第四种方案需要改造业务代码,这几种方式对采集容器文件都不友好。但用户对于日志文件有分类的需... 面对各种日志源,TLS 通过自研的 LogCollector/SDK/API,可支持专有协议、 OpenTelemetry 和 Kafka 协议上传日志。支持多种类型的终端、多种开发语言以及开源生态标准协议。采集到的日志首先会存入高速缓冲集群,削...
第四种方案需要改造业务代码,这几种方式对采集容器文件都不友好。但用户对于日志文件有分类的需求,标准输出将所有日志混在一起,不利于用户进行分类。如果用户要把所有日志都转到标准输出上,还需要开发或者配置,难以... 面对各种日志源,TLS 通过自研的 LogCollector/SDK/API,可支持专有协议、 OpenTelemetry 和 Kafka 协议上传日志。支持多种类型的终端、多种开发语言以及开源生态标准协议。采集到的日志首先会存入 **高速缓冲...
为了保证读写的效率,一般我们都会通过异步的方式来写数据,即先把数据写入内存,返回请求结果,然后再将数据异步写入。但是如果异步写入之前,系统宕机,会导致内存中的数据丢失。 **(write back)** 当系统出现故障重启... 所以系统故障的恢复:\- 检查点之前结束的事物不需要恢复(已经写入DB)\- 检查点之后结束或者正在发生的事务需要依据运行日志进行恢复(不能确定是否写回DB):**故障点结束前结束的重做,故障时刻未结束的撤销。=>重...
调用 API 设置日志信息(推荐)自 v3.54 版本起,你可以通过调用 setLogConfig 自定义设置本地日志级别、存储路径、日志文件最大占用空间。详细信息请参看 API 文档: Android iOS macOS Windows Linux Electron Web ... 日志文件最大为 2 MB。移动端日志文件总大小上限为 100 MB,PC 端日志文件总大小上限为 500 MB。当日志文件总大小达到上限时,则会从最老的日志文件开始删除。 日志级别级别为 warning 或高于该等级的事件才会被写入...
服务端会对每次 Producer 请求写入的日志数据进行长度检查,如果超出限制则整个请求失败且无任何日志数据成功写入。 前提条件已开通日志服务,创建日志项目与日志主题,并成功采集到日志数据。详细说明请参考快速入门。 确保当前操作账号拥有开通 Kafka 协议上传日志的权限,即具备 Action PutLogs 的权限。详细信息请参考可授权的操作。 参数说明使用 Kafka 协议上传日志时,您需要配置以下参数。 参数 示例 说明 连接类型 SAS...
容器服务基于火山引擎日志服务,提供日志功能,包括容器日志数据采集,关键字查询、SQL 分析等多种功能。 功能介绍火山引擎 日志服务 支持海量数据秒级查询分析,提供高效实时的日志处理工具,降低了日志类数据的使用门... 日志发送到容器的标准输出设备(Stdout)和标准错误设备(Stderr)。这两个标准输出设备,实际上就是容器的控制台终端。 容器文件路径:除了容器标准输出设备,大部分应用会将应用日志写入固定路径下的 log 文件中。您可以...
实现读取 TLS 主题中的日志数据,然后写入到 ESCloud 索引中。 流程介绍 准备数据源 TLS 主题。您需要在日志服务控制台创建一个日志项目,然后创建一个日志主题,并开通 Kafka 协议消费。还需要获取项目的访问地址、项... 每个分区提供的写入能力为 5 MiB/s、500 次/s,读取能力为 10 MiB/s、100 次/s。创建后暂不支持修改分区数量,但支持通过自动分裂功能提高日志主题的整体读写能力。 自动分裂日志分区 是否开启分区的自动分裂功能...
实现读取 TLS 主题中的日志数据,然后写入到 ESCloud 索引中。 流程介绍 准备数据源 TLS 主题。您需要在日志服务控制台创建一个日志项目,然后创建一个日志主题,并开通 Kafka 协议消费。还需要获取项目的访问地址、项... 每个分区提供的写入能力为 5 MiB/s、500 次/s,读取能力为 10 MiB/s、100 次/s。创建后暂不支持修改分区数量,但支持通过自动分裂功能提高日志主题的整体读写能力。 自动分裂日志分区 是否开启分区的自动分裂功能...