Elastic Stack 技术栈与无服务器架构核心指南

Elastic Stack 技术栈与无服务器架构核心指南

参考:https://www.elastic.co/docs/get-started/the-stack

本文档系统梳理Elastic Stack(ELK栈)全组件体系、核心能力、数据接入方案,以及标准化的安装部署规范,所有Elastic部署形态与项目均基于统一的开源技术底座构建,同时支持无服务器(Serverless)化部署方案,并结合各模块核心能力配套企业级实际落地案例,实现技术原理与业务实践的深度结合。

一、统一开源技术底座

所有Elastic部署方案与业务项目,均基于以下两大核心开源组件构建底层能力,这也是Elastic Stack最核心的技术基石:

  • Elasticsearch:分布式数据存储与搜索引擎,承担数据索引、查询与全场景分析核心能力;

  • Kibana:可视化用户界面,内置仪表盘、数据可视化能力与全栈管控工具。

基于不同的业务场景,你可额外安装配套组件,与Elasticsearch、Kibana共同组成完整的Elastic Stack(又称ELK栈),典型扩展组件包括:

  • Elastic Agent:轻量级数据采集器,负责数据采集并转发至Elasticsearch;

  • Logstash:数据接入与转换引擎,常用于构建复杂的ETL(抽取、转换、加载)数据管道。

Elastic Stack完整覆盖了海量数据的接入、存储、探索分析全生命周期能力,广泛应用于日志运维监控、全链路可观测、企业级检索、智能风控、数据可视化分析等核心场景,下文将详细拆解各组件协同工作机制、核心特性,以及对应场景的企业实际落地案例。

【行业典型场景总览案例】

国内某头部新零售电商企业,基于Elastic Stack搭建了一站式数据中台,核心覆盖三大业务场景:

  1. 以Elasticsearch为核心,搭建商品检索系统与用户行为分析平台,支撑日均亿级商品检索请求与千万级用户行为数据的实时分析;

  2. 以Elastic Agent+Kibana为核心,搭建混合云环境全链路运维监控体系,统一纳管2000+台服务器、300+微服务应用的日志与指标数据;

  3. 以APM+Logstash为核心,实现交易链路全流程性能监控与异构业务系统数据的统一清洗入湖,故障定位耗时从原来的2小时缩短至5分钟。

整套体系基于同一套Elastic Stack开源底座构建,避免了多套技术栈的运维成本,同时实现了数据的互联互通与统一管控。

二、核心能力层:数据存储、检索与分析

所有Elastic部署形态均默认包含Elasticsearch,它是整个Elastic体系与解决方案的核心,既是分布式检索分析引擎、可弹性扩缩容的数据存储,也是原生向量数据库。你可通过Elasticsearch客户端,使用主流编程语言直接访问与操作数据。

Elasticsearch 核心详解

Elasticsearch是一款面向全类型数据提供近实时检索与分析能力的数据存储与向量数据库。无论结构化/非结构化文本、带时间戳的时序数据、向量数据、地理空间数据,Elasticsearch均可高效完成存储与索引构建,为高速查询提供底层支撑;同时内置多套查询语言、数据聚合能力,以及完善的数据查询与过滤特性。

  1. 分布式高可用架构

Elasticsearch原生为弹性可扩展、高可靠的分布式系统设计,以一个或多个服务器(称为节点Node)组成集群的方式运行。数据写入索引(Elasticsearch中的基础存储单元)时,会被拆分为多个分片(Shard),并分散存储在集群的不同节点中。

该架构不仅支撑Elasticsearch处理海量数据,同时保障即使单个节点发生故障,数据仍可正常访问。若采用Elastic Cloud Serverless无服务器部署,其基于独创的Search AI Lake云原生架构,可自动完成节点、分片与副本的全生命周期管理,无需人工干预。

  1. 原生AI与可编程能力

Elasticsearch内置AI增强特性与预训练自然语言处理(NLP)模型,可帮助用户快速实现数据预测、推理执行,以及与大语言模型(LLMs)的深度集成。

同时,Elasticsearch几乎所有功能模块,均可通过REST API以编程方式完成配置与管理,既可以实现重复性任务自动化,也能将Elastic管控能力融入现有运维工作流,例如索引管理、集群配置更新、复杂查询执行、安全策略配置等。这种API优先的设计理念,是实现基础设施即代码(IaC)与大规模部署自动化管控的核心基础。

你可通过官方文档,进一步了解Elasticsearch数据存储体系、分布式架构与API的详细用法。

【Elasticsearch 企业落地案例】

案例1:金融机构海量时序交易数据实时风控分析

业务痛点:国内某城商行日均产生超5亿条交易流水数据,需对交易行为进行近实时风控筛查,识别盗刷、洗钱等异常交易,原有关系型数据库方案查询延迟超30秒,无法满足实时风控要求,且单库存储瓶颈明显,无法支撑数据量的快速增长。

实施方案

  • 搭建3主节点+12数据节点的Elasticsearch分布式集群,按交易日期拆分索引,单索引设置8个分片+1个副本,数据均匀分散在各数据节点,实现PB级交易数据的分布式存储;

  • 基于Elasticsearch的时序数据聚合能力,编写DSL查询语句,实现用户交易频次、交易地域、交易金额等多维度的秒级聚合分析,结合规则引擎实现异常交易的实时拦截;

  • 通过REST API将风控查询能力集成至现有交易系统,实现交易请求与风控筛查的同步执行,同时基于集群副本机制保障核心风控数据的多副本容灾,单节点故障不影响风控系统运行。

落地效果:交易数据查询与聚合分析延迟从30秒缩短至200毫秒以内,异常交易识别覆盖率提升95%,系统可支撑日均10亿级交易数据的写入与分析,连续3年零核心系统故障。

案例2:电商平台全场景商品检索与智能推荐

业务痛点:某综合电商平台拥有超2000万SKU商品数据,原有检索系统仅支持标题关键词匹配,无法实现商品描述、规格参数、用户评价等非结构化文本的检索,同时不支持基于用户地理位置的周边门店商品检索,检索准确率与用户体验较差。

实施方案

  • 基于Elasticsearch构建商品检索引擎,对商品标题、描述、规格参数、用户评价等文本数据进行分词与索引构建,支持全文检索、模糊匹配、同义词检索、权重排序等核心能力;

  • 利用Elasticsearch原生地理空间数据处理能力,接入全国3000+线下门店的地理位置与库存数据,实现"按用户配送地址筛选周边可配送商品"的LBS检索,同时支持按价格、销量、评分等多维度过滤与聚合;

  • 基于Elasticsearch的向量数据库能力,将商品特征与用户行为数据转化为向量,实现"相似商品推荐""个性化商品排序",检索结果点击率提升30%以上。

落地效果:商品检索响应耗时稳定在50毫秒以内,检索结果准确率提升80%,支持峰值每秒2万次检索请求,成为平台核心交易链路的关键支撑系统。

案例3:企业级RAG智能知识库

业务痛点:某大型科技企业拥有超100万份产品文档、技术手册、售后工单,员工与客户查询相关问题时,无法快速精准定位有效信息,售后客服重复咨询率高,知识传递效率极低。

实施方案

  • 基于Elasticsearch向量数据库+内置NLP模型,搭建RAG智能知识库,对所有文档进行分块、向量化处理并存储,同时保留原文文本索引,实现"关键词检索+向量语义检索"的混合检索模式;

  • 利用Elasticsearch的推理能力,对接企业内部大语言模型,将检索到的高相关度文档作为上下文,实现精准的智能问答,避免大模型幻觉问题;

  • 通过Python客户端将知识库检索能力集成至企业OA、客服系统、官网自助服务平台,实现多渠道的统一知识问答入口。

落地效果:售后客服问题平均处理时长缩短60%,员工知识查询效率提升70%,80%的常规咨询问题可通过智能问答自助解决,大幅降低了人工服务成本。

Elasticsearch 客户端

客户端为Java、Ruby、Go、Python等主流编程语言,提供了便捷的Elasticsearch API请求与响应管理机制,官方同时提供官方维护与社区贡献两类客户端供选择。

【客户端落地案例】

国内某互联网企业基于Java官方客户端,将Elasticsearch检索能力深度集成至Spring Boot微服务架构中,封装了统一的索引管理、数据写入、DSL查询工具类,实现了业务系统与Elasticsearch的低代码对接;同时基于Python客户端,开发了自动化索引生命周期管理脚本,自动完成历史索引的归档、冻结与删除,实现了集群存储资源的自动化运维,无需人工干预。

你可通过官方文档,进一步了解Elasticsearch各语言客户端的详细用法。

三、交互能力层:数据探索与可视化

Kibana是Elasticsearch存储数据的核心交互入口,承担数据探索、管控、可视化全能力,同时可实现对Elastic Stack全组件的统一管理。

Kibana 核心详解

Kibana为所有Elastic解决方案与无服务器项目提供统一用户界面,既是数据可视化与分析的核心工具,也是Elastic Stack管理与监控的核心控制台。即便Elasticsearch可脱离Kibana独立运行,但绝大多数业务场景均需依赖Kibana实现;包括Elastic Cloud Serverless在内的多种部署形态,均已默认集成Kibana。

通过Kibana,你可实现以下核心能力:

  • 借助Discover功能,对原始数据进行交互式检索与过滤;

  • 通过Lens等拖拽式工具,自定义构建图表、趋势线、指标卡等各类可视化组件;

  • 将可视化组件组装为交互式仪表盘,实现业务数据的全局统一洞察;

  • 执行地理空间分析,并在仪表盘中集成地图可视化能力;

  • 针对关键数据事件配置通知规则,通过告警与案例管理功能实现故障全链路追踪;

  • 统一管理处理器、数据管道、数据流、训练模型等各类资源。

不同解决方案与项目类型,均可在Kibana中使用定制化功能,例如内置仪表盘、AI助手等。

同时,Kibana还内置Console等查询工具,支持以交互式方式直接向Elasticsearch API发送请求并查看响应结果;也可创建与管理API密钥,为脚本与应用程序提供安全、自动化的接口访问能力。

【Kibana 企业落地案例】

案例1:互联网企业全链路运维监控大盘搭建

业务痛点:某游戏公司拥有近千台云服务器、上百个游戏微服务与数据库实例,原有监控工具分散,日志与指标数据无法联动分析,服务器宕机、接口异常等故障需用户反馈后才能发现,故障排查效率极低。

实施方案

  • 基于Kibana Lens拖拽式可视化工具,搭建核心运维监控大盘,分为主机监控、应用监控、数据库监控、链路监控四大模块,实时展示CPU、内存、磁盘使用率、接口响应时长、错误率、QPS等核心指标;

  • 利用Kibana Discover功能,实现全量日志的交互式检索与过滤,支持按服务名、日志级别、错误关键词、时间范围快速定位异常日志,与指标数据形成联动分析;

  • 配置Kibana告警规则,对服务器CPU使用率超90%、接口错误率超5%、服务宕机等异常事件,通过企业微信、短信、邮件实时推送告警通知,同时通过案例管理功能实现故障的全流程追踪与闭环管理;

  • 通过Kibana Console工具,实现Elasticsearch集群的日常管理与DSL语句调试,大幅降低集群运维门槛。

落地效果:实现了IT基础设施与应用的全链路可观测,故障发现率从30%提升至100%,平均故障排查时长从1小时缩短至5分钟,保障了游戏业务的稳定运行。

案例2:制造企业生产经营数据实时可视化

业务痛点:某汽车零部件制造企业,生产数据、设备数据、订单数据分散在MES、ERP、WMS等多个系统中,管理层无法实时掌握工厂生产进度、设备运行状态、订单交付情况,经营决策依赖滞后的人工报表。

实施方案

  • 通过Elastic Stack将各业务系统数据统一接入Elasticsearch,基于Kibana搭建工厂经营驾驶舱,分为生产进度、设备OEE、质量管控、订单交付、库存管理五大主题仪表盘;

  • 利用Kibana的地理空间分析能力,在地图上可视化展示全国各工厂、仓库的分布与运行状态,实现跨厂区的统一数据监控;

  • 针对设备故障率超阈值、订单交付延期、质量不合格率超标等关键事件,配置Kibana告警规则,实时推送至生产管理负责人,实现异常事件的快速响应;

  • 按管理层、车间主任、一线班组长不同角色,配置Kibana仪表盘权限,实现不同层级人员的精准数据可视化。

落地效果:实现了生产经营数据的实时可视化展示,数据统计报表生成耗时从原来的1天缩短至实时,设备非计划停机时长缩短25%,订单交付及时率提升20%。

你可通过《使用Kibana探索与分析数据》官方文档,进一步了解其详细用法。

四、数据接入层:数据入湖全方案

数据的检索、可视化与深度洞察,均以数据写入Elasticsearch为前提。Elastic Stack提供多套数据接入方案,最优方案需根据数据类型与具体业务场景选择:例如可通过Elastic Agent采集并转发日志、指标等各类数据,通过APM采集应用精细化性能数据;若需在数据存储前完成转换与数据富化,可选择Elasticsearch摄入管道或Logstash实现。

若需选型适配业务的接入组件,可参考《数据接入:将你的数据导入Elastic》与《接入工具概览》官方文档。

核心数据接入组件详解

  1. Elastic Agent 与集成能力

Elastic Agent是面向主机的一站式、统一数据采集与安全防护组件,可为主机添加日志、指标等多类型数据的监控能力,同时可防护主机免受安全威胁、从操作系统中查询数据,以及转发来自远程服务或硬件设备的数据。

每个Agent对应一套统一策略,你可在策略中新增集成配置,对接新的数据源、拓展安全防护能力等;也可通过Elastic Agent的处理器,完成数据脱敏或数据富化处理。

如需监控所有Elastic Agent的运行状态、管理Agent策略、升级Agent程序与集成插件,可通过Fleet的集中管控功能实现。

【Elastic Agent 落地案例】

某跨国企业在全球拥有5个地域的混合云集群,共3000+台Linux/Windows服务器,需要统一采集服务器系统日志、安全日志、Nginx访问日志、MySQL慢查询日志,以及CPU、内存、磁盘等主机指标数据。

实施方案

  • 在所有服务器中部署统一的Elastic Agent,通过Fleet集中管理平台下发统一的采集策略,按服务器类型(应用服务器、数据库服务器、缓存服务器)匹配对应的集成插件,一键开启对应数据的采集;

  • 利用Elastic Agent处理器,在数据采集端完成用户手机号、身份证号等敏感数据的脱敏处理,同时补充服务器地域、机房、业务线等元数据,便于后续数据分组分析;

  • 通过Fleet实现Elastic Agent的全生命周期管理,远程完成Agent版本升级、策略更新、运行状态监控,无需逐台服务器登录操作。

落地效果:仅用2周就完成了全球3000+台服务器的数据采集部署,替代了原有需要逐台配置的多套采集工具,运维人力成本降低70%,数据采集的完整性与稳定性大幅提升。

你可通过官方文档,进一步了解Elastic Agent的详细用法。

  1. APM(应用性能监控)

APM是一套应用性能监控体系,可对软件服务与应用进行实时监控。它能采集精细化的性能数据,包括入站请求响应耗时、数据库查询、缓存调用、外部HTTP请求等全链路指标,帮助研发人员快速定位并修复应用性能问题。

【APM 落地案例】

业务痛点:某在线教育平台直播课高峰期,用户频繁反馈页面加载慢、接口卡顿,研发人员无法定位是前端、接口、数据库还是第三方服务的性能问题,严重影响用户上课体验。

实施方案

  • 基于Elastic APM对平台Java微服务、前端小程序、APP进行全链路埋点,采集接口请求、数据库查询、Redis缓存调用、第三方支付/短信接口请求的全链路性能数据;

  • 通过Kibana APM仪表盘,实时展示接口平均响应时长、慢请求占比、错误率、吞吐量等核心指标,支持按请求链路追踪每个环节的耗时分布;

  • 配置告警规则,对接口响应超时、数据库慢查询、第三方接口调用失败等异常事件实时告警,同时关联对应链路的详细日志,实现性能问题的一站式根因定位。

落地效果:成功定位出3个核心慢SQL、2个超时第三方接口等性能瓶颈,优化后接口平均响应时长从800毫秒缩短至150毫秒,高峰期用户卡顿反馈下降90%,同时后续新增性能问题可在5分钟内完成定位与修复。

你可通过官方文档,进一步了解APM的详细用法。

  1. OpenTelemetry Collector

OpenTelemetry(简称OTel)是一套厂商中立的可观测性框架,用于遥测数据的采集、处理与导出。Elastic是云原生计算基金会(CNCF)成员,同时也是OpenTelemetry项目的活跃贡献者。

除了支持OTel上游社区的原生开发,Elastic还提供了OpenTelemetry官方发行版(EDOT),专为Elastic可观测性体系深度适配设计。

通过EDOT,你可使用厂商中立的探针埋点方案,直接流式传输标准化的链路、指标、日志等原生OTel数据,无需依赖专属采集Agent。

【OpenTelemetry 落地案例】

某云原生企业基于Kubernetes搭建了容器化微服务平台,开发语言涵盖Go、Python、Node.js,希望搭建厂商中立的可观测体系,避免被单一厂商绑定,同时实现日志、指标、链路三大遥测数据的统一采集与分析。

实施方案

  • 在K8s集群中部署OpenTelemetry Collector,采用DaemonSet+Sidecar结合的部署模式,统一采集容器内微服务的日志、指标、链路数据,完成数据过滤、格式标准化后转发至Elasticsearch;

  • 基于Elastic EDOT发行版,为不同开发语言的微服务提供无侵入式埋点探针,无需修改业务代码即可实现全链路数据采集,完全兼容OpenTelemetry原生标准;

  • 基于Elastic Stack对采集到的OTel数据进行统一存储、分析与可视化,在Kibana中实现日志、指标、链路数据的联动跳转与关联分析。

落地效果:实现了云原生环境下厂商中立的全链路可观测体系,兼容多语言微服务架构,数据采集与分析的标准化程度大幅提升,同时可灵活对接其他可观测工具,避免了厂商技术绑定。

  1. Beats

Beats是一系列开源数据采集器,可作为Agent安装在服务器中,向Elasticsearch发送运维数据。Elastic为不同数据类型(日志、指标、运行状态监控等)提供了独立的Beats组件。

目前绝大多数业务场景下,Beats已被Elastic Agent替代。Elastic Agent不仅完整覆盖了Beats的核心功能,还提供了更丰富的扩展能力;以往需在主机中安装多个Beats采集器才能满足的多类型数据采集需求,现在仅需安装单个Elastic Agent即可实现。

【Beats 落地案例】

某中小企业有50台业务服务器,仅需采集系统日志与Nginx访问日志,业务场景简单,无需复杂的集中管控与安全防护能力。团队基于Filebeat轻量级采集器,在服务器中快速部署,通过极简的YAML配置文件定义日志采集路径与输出地址,1天内就完成了全量日志的采集接入,将日志数据稳定转发至Elasticsearch,配合Kibana实现了日志的检索与可视化,整体部署与运维成本极低,完全满足企业基础日志管理需求。

你可通过官方文档,进一步了解Beats的详细用法。

  1. Elasticsearch 摄入管道

摄入管道支持在数据写入Elasticsearch索引前,对数据执行常规转换处理。你可配置一个或多个"处理器"任务按顺序执行,在数据持久化存储前,对文档完成指定的处理操作。

【摄入管道 落地案例】

某企业需要采集用户访问日志,原始日志中仅包含用户IP地址、访问时间、请求地址、状态码等基础信息,希望在数据写入时自动完成数据富化与格式转换。

实施方案

  • 在Elasticsearch中创建专属的访问日志摄入管道,依次配置多个处理器:通过Grok处理器将非结构化的日志文本解析为结构化字段,拆分出请求方法、请求路径、协议版本等独立字段;

  • 通过IP地址处理器,基于用户IP自动解析出所属省份、城市、运营商信息,完成数据富化;

  • 通过日期处理器,将日志中的时间字符串转换为Elasticsearch标准的时间格式,通过脚本处理器计算请求耗时的毫秒数,通过移除字段处理器删除冗余无效字段。

落地效果:无需额外部署数据处理组件,在数据写入Elasticsearch时就完成了全量清洗与转换,日志数据结构化率100%,为后续的检索与可视化分析奠定了基础。

你可通过官方文档,进一步了解摄入管道的详细用法。

  1. Logstash

Logstash是具备实时管道处理能力的数据采集引擎,可动态对接异构数据源,将数据标准化处理后写入指定的目标地址。Logstash支持丰富的输入、过滤、输出插件,同时内置大量原生编解码器,进一步简化数据接入流程。

【Logstash 落地案例】

业务痛点:某零售企业需要对接MySQL业务库、Oracle财务系统、Kafka消息队列、CSV文件等多个异构数据源,数据格式不统一,需要完成复杂的数据清洗、转换、关联与富化,最终统一写入Elasticsearch,构建经营数据中心,简单的摄入管道无法满足复杂的ETL需求。

实施方案

  • 部署Logstash集群,配置多套数据管道,通过JDBC输入插件对接MySQL、Oracle数据库,通过Kafka输入插件对接实时消息数据,通过File输入插件读取离线CSV文件,实现多源异构数据的统一接入;

  • 在Filter过滤环节,通过Grok、Dissect插件完成非结构化数据解析,通过Join插件实现多表数据关联,通过Ruby脚本完成复杂的业务逻辑计算,同时实现数据去重、空值处理、数据脱敏、格式标准化;

  • 配置Elasticsearch输出插件,将清洗完成的标准化数据按业务主题写入不同的Elasticsearch索引,同时配置死信队列,处理写入失败的数据,保障数据不丢失。

落地效果:实现了10+异构业务系统数据的统一接入与ETL处理,每日处理超1亿条业务数据,数据处理延迟低于5秒,无需开发定制化数据同步脚本,大幅降低了数据集成的开发成本。

你可通过官方文档,进一步了解Logstash的详细用法。

五、安装与部署规范

无服务器部署说明

无服务器(Serverless)形态下,无需执行手动安装操作,Elastic Cloud Serverless会自动完成底层资源、集群节点、组件的全生命周期管理,用户仅需专注于数据接入与业务应用开发。

版本一致性要求

安装Elastic Stack时,必须保证全栈所有组件使用完全相同的版本。例如:若使用Elasticsearch 9.3.0,则需同步安装9.3.0版本的Beats、APM Server、Elasticsearch Hadoop、Kibana与Logstash。

若对现有部署进行版本升级,可参考《升级你的部署、集群或编排器》官方文档,确保升级后所有组件与9.3.0版本兼容。

自管理集群安装顺序

若在自管理集群中部署Elastic Stack,请按照以下顺序安装所需组件,确保各组件依赖的底层服务与能力提前就绪:

  1. Elasticsearch

  2. Kibana

  3. Logstash

  4. Elastic Agent 或 Beats

  5. APM

  6. Elasticsearch Hadoop

生产环境部署最佳实践

若在生产环境部署,且计划为Elasticsearch使用受信任CA签发的证书,必须在部署Fleet与Elastic Agent前完成证书配置

原因在于:若重新配置安全证书,所有已部署的Elastic Agent均需重新安装。因此建议在证书配置就绪后,再完成Fleet与Elastic Agent的部署与配置。

【生产环境部署落地案例】

某金融企业生产环境部署Elastic Stack 9.3.0版本,用于核心交易系统的日志监控与风控分析,对安全性、高可用性、合规性有极高要求,具体部署方案如下:

  1. 前期准备:向企业内部CA机构申请签发统一的SSL证书,覆盖Elasticsearch集群所有节点,完成证书的配置与验证,开启集群HTTPS访问与身份认证,确保所有组件通信均采用加密传输,满足金融行业数据安全合规要求;

  2. 集群部署:严格按照安装顺序,先部署3个Elasticsearch专用主节点+6个数据节点+2个协调节点的高可用集群,配置跨机房副本,确保单机房故障不影响集群运行,完成集群健康状态与证书配置验证;

  3. 组件部署:Elasticsearch集群验证通过后,依次部署Kibana(3节点高可用)、Logstash(4节点集群),所有组件均使用9.3.0版本,且复用同一套CA证书,完成各组件与Elasticsearch的连通性验证;

  4. 采集层部署:核心组件全部部署完成且验证通过后,在Fleet中配置基于CA证书的Agent策略,在业务服务器中批量部署Elastic Agent,实现数据采集与集群的加密通信,避免后续证书更换导致的Agent重装问题;

  5. 运维管控:基于Kibana配置集群监控与告警,通过API将集群管理纳入企业现有IaC运维平台,实现集群配置、索引生命周期、安全策略的自动化管理。

落地期望达到效果:整套集群连续稳定运行至少超2年,无数据安全事件与核心系统故障,满足金融行业等保三级合规要求,同时标准化的部署流程大幅降低后续版本升级与运维的难度。

相关推荐
无人装备硬件开发爱好者2 小时前
深入浅出双冗余无人机飞控:架构、软件实现与实战配置 2
架构·无人机
heimeiyingwang3 小时前
向量数据库Milvus的安装部署指南
java·数据库·架构·database
AI资源库3 小时前
stepfun-ai/Step-3.5-Flash模型深入解析
人工智能·语言模型·架构
楚来客3 小时前
具身智能技术架构发展简介
架构
hacklf20084 小时前
数据库高安全—openGauss安全整体架构&安全认证
数据库·安全·架构
认真的薛薛4 小时前
3.k8s-暴露pod和service
云原生·容器·kubernetes
Alice_whj5 小时前
AI云原生笔记
人工智能·笔记·云原生
人间打气筒(Ada)5 小时前
Kubernetes核心技术-service详解
云原生·容器·kubernetes·云计算·devops·service·service代理
紫金桥软件5 小时前
【紫金桥跨平台实时数据库】的技术架构与工程实践
数据库·架构·自动化·跨平台