3. 分布式链路追踪的链路日志设计

前言

分布式链路追踪的客户端实现中,我们会通过各种手段和规则得到一个又一个的Span ,得到这些Span 后,需要在分布式链路追踪的服务端这边汇总这些Span 并拼接出一条请求链路,那么这里就存在一个问题,客户端得到的Span 如何给到服务端,通常是会在每个Span 调用finish() 方法时将Span 发送给服务端,这里的发送有多种形式,例如把Span 主动的pushKafkaTopic ,还例如把Span 当作一条日志打印出来再由Filebeat 采集,我们的本系列文章中,就选择将Span链路日志的形式打印出来,至于如何采集以及服务端如何拼接,这不在本系列文章的讨论范围内。

正文

这里直接给出定义好的链路日志格式,如下所示。

json 复制代码
{
    "traceId": "testTraceId", 
    "spanId": "testSpanId", 
    "parentSpanId": "testparentSpanId", 
    "timestamp": "1704038400000", 
    "duration": "10", 
    "httpCode": "200", 
    "host": "127.0.0.1", 
    "requestStacks": [ 
        {
            "subSpanId": "testSubSpanId", 
            "subHttpCode": "200", 
            "subTimestamp": "1704038401000", 
            "subDuration": "5", 
            "subHost": "192.168.10.5", 
        }
    ]
}

特别说明一下requestStacks 这个字段,该字段主要就是用于记录当前节点调用下游子节点的Span 的信息,包括子节点的SpanId ,调用子节点得到的HTTP状态码和调用耗时等。

既然确定了链路日志的格式,现在我们用一个示例demo ,来结合链路日志做一个演示说明。示例demo的调用链路如下所示。

假定请求在网络中跑不耗时,clientserver1 的应用自身逻辑处理不耗时,那么对于client,打印的链路日志如下。

json 复制代码
{
    "traceId": "0001",
    "spanId": "01",
    "parentSpanId": "0",
    "timestamp": "1704038400000",
    "duration": "100",
    "httpCode": "200",
    "host": "192.168.10.1",
    "requestStacks": [
        {
            "subSpanId": "02",
            "subHttpCode": "200",
            "subTimestamp": "1704038400000",
            "subDuration": "40",
            "subHost": "192.168.10.2"
        },
        {
            "subSpanId": "04",
            "subHttpCode": "200",
            "subTimestamp": "1704038400040",
            "subDuration": "60",
            "subHost": "192.168.10.3"
        }
    ]
}

对于server1,打印链路日志如下。

json 复制代码
{
    "traceId": "0001",
    "spanId": "02",
    "parentSpanId": "01",
    "timestamp": "1704038400000",
    "duration": "40",
    "httpCode": "200",
    "host": "192.168.10.2",
    "requestStacks": [
        {
            "subSpanId": "03",
            "subHttpCode": "200",
            "subTimestamp": "1704038400000",
            "subDuration": "40",
            "subHost": "192.168.10.4"
        }
    ]
}

对于server2,打印链路日志如下。

json 复制代码
{
    "traceId": "0001",
    "spanId": "04",
    "parentSpanId": "01",
    "timestamp": "1704038400040",
    "duration": "60",
    "httpCode": "200",
    "host": "192.168.10.3",
    "requestStacks": []
}

对于server3,打印链路日志如下。

json 复制代码
{
    "traceId": "0001",
    "spanId": "03",
    "parentSpanId": "02",
    "timestamp": "1704038400000",
    "duration": "40",
    "httpCode": "200",
    "host": "192.168.10.4",
    "requestStacks": []
}

总结

其实打印链路日志,其核心目的就是记录每个SpantraceIdspanIdparentSpanId ,通过这三个字段信息,就可以拼接出一条链路。此外,还可以根据实际的需求添加一些额外字段,例如和时间相关的durationtimestamp ,这两个字段能够帮助排查链路中的耗时情况。

原文:https://juejin.cn/post/7331959792787079177

相关推荐
天冬忘忧18 分钟前
Kafka 数据倾斜:原因、影响与解决方案
分布式·kafka
隔着天花板看星星22 分钟前
Kafka-Consumer理论知识
大数据·分布式·中间件·kafka
隔着天花板看星星25 分钟前
Kafka-副本分配策略
大数据·分布式·中间件·kafka
金刚猿1 小时前
简单理解下基于 Redisson 库的分布式锁机制
分布式·分布式锁·redisson
我一直在流浪1 小时前
Kafka - 消费者程序仅消费一半分区消息的问题
分布式·kafka
张彦峰ZYF3 小时前
投资策略规划最优决策分析
分布式·算法·金融
processflow流程图5 小时前
分布式kettle调度平台v6.4.0新功能介绍
分布式
全栈开发圈5 小时前
干货分享|分布式数据科学工具 Xorbits 的使用
分布式
运维&陈同学7 小时前
【zookeeper01】消息队列与微服务之zookeeper工作原理
运维·分布式·微服务·zookeeper·云原生·架构·消息队列
时差9537 小时前
Flink Standalone集群模式安装部署
大数据·分布式·flink·部署