腾讯mini项目-【指标监控服务重构】2023-08-29

今日已办

Collector 指标聚合

由于没有找到 Prometheus 官方提供的可以聚合指定时间区间内的聚合函数,所以自己对接Prometheus的api来聚合指定容器的cpu_avg、cpu_99th、mem_avg

实现成功后对接小组成员测试完提供的时间序列和相关容器,将数据记录在表格中

  1. SpringBoot RestController
  2. Jackson json serialization
  3. data aggregation
java 复制代码
/**
 * @author xzx
 * @date 2023/8/29
 */
@RestController
@RequestMapping("/prometheus")
public class PrometheusController {

    @GetMapping
    public ResponseResult GetMetrics(@RequestParam String ip,
                                     @RequestParam String containerName,
                                     @RequestParam String startDay,
                                     @RequestParam String startHour,
                                     @RequestParam String startMinute,
                                     @RequestParam String startSecond,
                                     @RequestParam String endDay,
                                     @RequestParam String endHour,
                                     @RequestParam String endMinute,
                                     @RequestParam String endSecond,
                                     @RequestParam int idx) {


        String queryCpu = "sum(irate(container_cpu_usage_seconds_total{name=\"" + containerName + "\"}[5m])) without (cpu)";
        String start = startDay + "T" + startHour + ":" + startMinute + ":" + startSecond + ".000Z";
        String end = endDay + "T" + endHour + ":" + endMinute + ":" + endSecond + ".000Z";
        List<List<Object>> cpuValues = getValues(ip, start, end, queryCpu, idx);

        List<Double> cpuList = new ArrayList<>();
        Double sum = (double) 0;
        for (List<Object> value : cpuValues) {
            if (value.size() == 2) {
                Double v = Convert.toDouble(value.get(1));
                sum += v;
                cpuList.add(v);
            }
        }
        Collections.sort(cpuList);

        String queryMem = "container_memory_usage_bytes{name=\"" + containerName + "\"}";
        List<List<Object>> memValues = getValues(ip, start, end, queryMem, 0);
        long memSum = 0;
        for (List<Object> value : memValues) {
            if (value.size() == 2) {
                memSum += Convert.toLong(value.get(1));
            }
        }

        PrometheusMetricsData data = new PrometheusMetricsData()
                .setCpu95th(cpuList.get(Convert.toInt(0.95 * cpuList.size())) * 100)
                .setCpuAvg(sum / Convert.toDouble(cpuValues.size()) * 100)
                .setMemAvg(memSum / memValues.size());

        return ResponseResult.okResult(data);
    }

    private List<List<Object>> getValues(String ip, String start, String end, String queryCpu, int idx) {
        String body = HttpRequest.get("http://" + ip + "/prometheus/api/v1/query_range?query=" + queryCpu + "&start=" + start + "&end=" + end + "&step=1s")
                .timeout(20000)
                .execute().body();
        PrometheusRespDto prometheusRespDto = JSONUtil.toBean(body, PrometheusRespDto.class);


        List<PromResult> result = prometheusRespDto.getData().getResult();
        List<List<Object>> values = result.get(idx).getValues();

        return values;
    }

}

测试

确定测试方案

我们打算在 10 万到 100万之间摸一个不会丢的量以及合适的并发量,作为不同 collector 测存储和查询的前提

我们能不能固定一个数量,然后使用相同的代码来上报相同的trace(只是可以控制线程睡眠时间)来调整耗时,让两种collector都能完整的上报所有数据,保证不回丢失,最后来计算存储大小

编写测试函数

go 复制代码
func TestTraceSpan(t *testing.T) {
	ctx := context.Background()
	res, err := resource.New(ctx,
		resource.WithFromEnv(),
		resource.WithProcess(),
		resource.WithTelemetrySDK(),
		resource.WithHost(),
		resource.WithAttributes(
			attribute.String("service.name", "test-service"),
			attribute.String("library.language", "go"),
		),
	)
	if err != nil {
		return
	}
	otel.SetTextMapPropagator(propagation.NewCompositeTextMapPropagator(propagation.TraceContext{}, propagation.Baggage{}))
	tracerProviderShutDown := otelclient.InitTraceProvider(res, ctx)
	defer tracerProviderShutDown()

	testTracer := otel.Tracer("test_demo", trace.WithInstrumentationAttributes(attribute.String("demo.author", "xzx")))
	group := sync.WaitGroup{}
	for i := 0; i < 50; i++ {
		group.Add(1)
		go func(num int) {
			for j := 0; j < 4000; j++ {
				rootCtx, span := testTracer.Start(ctx, "demo_root_span"+string(rune(num)), trace.WithSpanKind(trace.SpanKindProducer), trace.WithAttributes(attribute.String("user.username", uuid.NewString())))
				for k := 0; k < 4; k++ {
					_, subSpan := testTracer.Start(rootCtx, "demo_sub_span", trace.WithSpanKind(trace.SpanKindInternal))
					if subSpan.IsRecording() {
						subSpan.SetAttributes(attribute.String("user.uuid", uuid.NewString()),
							attribute.Int64("user.ip", int64(uuid.New().ID())))
					}
					time.Sleep(10 * time.Millisecond)
					subSpan.End()
				}
				time.Sleep(time.Millisecond * 41)
				span.End()
			}
			group.Done()
		}(i)
	}
	group.Wait()
}

汇总进度和问题

  1. es 的监控平台的 文档数 和 kibana 的数据条数不一致,最后以 kibana 的 hits 为基准
  2. 测试上报最终的数据丢失,测试不准确,由于并发数太多了,大多数据都存储在内存中,由于超时被丢弃
  3. 官方的 otel-collector 的数据库和表创建耗费时间长
  4. 协助测试组员的记录来聚合容器指标,记录表格内容,完成 trace-collector、metric-collector的测试结果表格
  5. clickhouse的数据**"幻读"**
    1. 存在副本
    2. 同步时间较长,写入后需要一段时间后才能看到另一个节点的数据拷贝
    3. 删除通过SQLDROP Database database_name SYNC 无法drop所有节点的数据库,故删除后一段时间后又会查询到该数据库的数据
  6. 测试周期较长,测试结果的采集不够自动化,测试样例和次数不太丰富,由于前期的测试方案方向和方法不正确,走了很多外路,不过在组员的努力和导师的指导下跌跌撞撞勉强完成测试结果
  7. 。。。

明日待办

  1. PPT制作
  2. 录制Showcase视频
  3. 绘制Showcase表格和图像
  4. 输出测试结果的总结
相关推荐
一条闲鱼_mytube3 小时前
git自动压缩提交的脚本
大数据·git·elasticsearch
不能放弃治疗3 小时前
第 29 章 - ES 源码篇 - 网络 IO 模型及其实现概述
后端·elasticsearch
楚疏笃7 小时前
ES 磁盘使用率检查及处理方法
大数据·elasticsearch·搜索引擎
INFINI Labs10 小时前
从 Elastic 迁移到 Easysearch 指引
elasticsearch·es·easysearch
武子康16 小时前
大数据-260 实时数仓 - 项目背景与需求 实时数仓架构 需求分析 技术选型 逻辑架构
java·大数据·数据仓库·clickhouse·架构·flink·kafka
我自飞扬临天下16 小时前
Elasticsearch名词解释
大数据·elasticsearch·搜索引擎
请你喝好果汁64118 小时前
玉米中的元基因调控网络突出了功能上相关的调控相互作用。\functions.R
网络·elasticsearch·r语言
容若只如初见19 小时前
项目总结-ElasticSearch性能优化考虑点
elasticsearch·性能优化·jenkins
kong790692821 小时前
电商项目-数据同步解决方案(三)商品上架同步更新ES索引库
elasticsearch·搜索引擎·数据同步
正在绘制中21 小时前
Java重要面试名词整理(十四):elasticsearch
java·elasticsearch·面试