OpenClaw 企业级实战:Java 微服务集成 AI 智能体,自动处理业务流

文章目录

    • 当你的微服务开始"自己思考"
    • [OpenClaw 到底是个啥?别被概念吓住](#OpenClaw 到底是个啥?别被概念吓住)
    • [架构设计:让 Java 微服务和 AI 智能体"合伙创业"](#架构设计:让 Java 微服务和 AI 智能体"合伙创业")
    • [为什么非得用 Java?Python 不香吗?](#为什么非得用 Java?Python 不香吗?)
    • [实战准备:Spring AI 与 OpenClaw 的"联姻"配置](#实战准备:Spring AI 与 OpenClaw 的"联姻"配置)
      • [第一步:Java 侧的"工具暴露"](#第一步:Java 侧的"工具暴露")
      • [第二步:OpenClaw 的 Skills 配置](#第二步:OpenClaw 的 Skills 配置)
      • [第三步:OpenClaw 的部署配置](#第三步:OpenClaw 的部署配置)
    • 业务流自动化实战:让订单"自己跑起来"
      • 场景剧本
      • [Java 侧的"决策支持"代码](#Java 侧的"决策支持"代码)
      • [OpenClaw 的自动化 Hook 配置](#OpenClaw 的自动化 Hook 配置)
    • 多智能体协作:复杂订单的"会诊"模式
    • [企业级落地:别让 AI 变成"数字临时工"](#企业级落地:别让 AI 变成"数字临时工")
      • 持久化与故障恢复
      • [安全隔离:防止 AI "发疯"](#安全隔离:防止 AI "发疯")
      • [可观测性:看清 AI 的"脑回路"](#可观测性:看清 AI 的"脑回路")
    • 成本与收益:算笔明白账
    • [总结:Java + OpenClaw,企业 AI 的务实之选](#总结:Java + OpenClaw,企业 AI 的务实之选)

无意间发现了一个巨牛巨牛巨牛的人工智能教程,非常通俗易懂,对AI感兴趣的朋友强烈推荐去看看,传送门blog.csdn.net/HHX_01

当你的微服务开始"自己思考"

这事儿说起来挺魔幻的。去年我们团队还在用定时任务+人工审核处理订单,每天凌晨两点得安排值班人员盯着系统跑批。今年我们把 OpenClaw 塞进 Java 微服务架构之后,这哥们儿居然学会了"看情况办事"------遇到 VIP 客户自动提速,检测到库存告急直接触发补货流程,甚至能在 Slack 里跟仓库管理员讨价还价。

不是,现在的 AI 智能体都这么卷了吗?

今天咱们就聊聊怎么把 OpenClaw 这个 2026 年最火的开源 AI 智能体框架,塞进你的 Spring Boot 微服务里。不用重构整个架构,也不用让团队学 Python,就用你最熟悉的 Java 技术栈,搞一套能 7×24 小时自主决策的业务自动化系统。

OpenClaw 到底是个啥?别被概念吓住

说实话,第一次听说 OpenClaw 的时候我也懵。这玩意儿原名 Clawdbot,后来改名叫 Moltbot,2026 年 1 月才定名为 OpenClaw------短短三个月GitHub Star 数破了 10 万,连老黄都在 GTC 2026 上吹它是"可能是有史以来最重要的软件发布"。

说白了,OpenClaw 就是一个住在服务器里的数字员工。它不像 ChatGPT 那样只会聊天,而是真正能动手干活:读你的数据库、调用你的 API、在 Slack 里发消息、甚至能打开浏览器帮你查资料。最骚的是,它支持通过 WhatsApp、Telegram、Discord 这些聊天工具接收指令------想象一下,你在地铁上给 Telegram 发句话,家里的服务器就开始自动部署代码了。

它和传统的工作流引擎(比如 Zapier、n8n)最大的区别在于:OpenClaw 会思考。传统引擎是"如果 A 发生就执行 B",OpenClaw 是"用户说要搞个促销活动,让我先分析一下历史数据、看看库存情况、再决定怎么搞"。这种基于 LLM 的推理能力,让它能处理那些规则引擎搞不定的模糊业务场景。

架构设计:让 Java 微服务和 AI 智能体"合伙创业"

在企业级落地时,我建议采用网关+域服务 的混合架构。别想着把 OpenClaw 当成万能的瑞士军刀,它更适合扮演智能编排层的角色,而真正执行业务逻辑的还得是你现有的 Java 微服务。

整体架构草图

复制代码
┌─────────────────────────────────────────────────────────────┐
│                     通信层(OpenClaw)                      │
│  ┌─────────────┐ ┌─────────────┐ ┌─────────────────────┐  │
│  │  Slack Bot  │ │ Telegram Bot│ │    定时任务 Cron    │  │
│  └──────┬──────┘ └──────┬──────┘ └──────────┬──────────┘  │
└─────────┼───────────────┼───────────────────┼─────────────┘
          │               │                   │
          └───────────────┼───────────────────┘
                          ▼
┌─────────────────────────────────────────────────────────────┐
│                  OpenClaw Gateway(Node.js)               │
│              推理决策层(Claude/GPT-4/Gemini)             │
│              持久化内存(QMD/SQLite)                     │
│              Skills 插件系统(MCP 支持)                    │
└─────────────────────────┬─────────────────────────────────┘
                          │ 调用业务 API
                          ▼
┌─────────────────────────────────────────────────────────────┐
│                   Java 微服务集群(Spring Boot)             │
│  ┌─────────────┐ ┌─────────────┐ ┌─────────────────────┐  │
│  │ 订单服务    │ │ 库存服务    │ │   用户/权限服务     │  │
│  │ Order Svc   │ │ Inventory   │ │   Auth Service      │  │
│  └──────┬──────┘ └──────┬──────┘ └──────────┬──────────┘  │
└─────────┼───────────────┼───────────────────┼─────────────┘
          │               │                   │
          └───────────────┼───────────────────┘
                          ▼
┌─────────────────────────────────────────────────────────────┐
│                  基础设施层                                │
│     PostgreSQL(向量存储)    Redis(缓存)    Kafka(消息)  │
└─────────────────────────────────────────────────────────────┘

这个架构的关键在于职责分离:OpenClaw 负责理解用户意图、制定执行计划、协调多个步骤;Java 微服务负责原子性的业务操作(查库存、改订单状态、发短信)。这样既能享受 AI 的推理灵活性,又能保住 Java 生态的稳定性与可审计性。

为什么非得用 Java?Python 不香吗?

我知道你想问这个。2026 年的企业级 AI 部署早就过了"Demo 用 Python,生产再考虑"的阶段了。Red Hat 今年专门发文论证过:在金融、医疗、航空这些强监管行业,你需要的是可审计、强类型、长期稳定的运行时环境。

Java 的 Spring AI 和 Quarkus LangChain4j 现在已经完全成熟,支持工具调用(Function Calling)、RAG(检索增强生成)、结构化输出等企业级特性。更重要的是,你的 DevOps 团队不需要为 AI 服务单独维护一套 Python 生态的监控、链路追踪、CI/CD流程------全部沿用现有的 Java 基础设施就行。

实战准备:Spring AI 与 OpenClaw 的"联姻"配置

咱们以电商订单智能处理为例,搭建一个能自动处理退款审核、库存调配、物流跟进的 AI 智能体。

第一步:Java 侧的"工具暴露"

OpenClaw 要操作你的业务系统,最干净的方式是通过 REST API 或 MCP(Model Context Protocol)。这里我用 Spring AI 的 Function Calling 机制,把 Java 方法直接暴露为 AI 可调用的"工具"。

java 复制代码
@Service
public class OrderTools implements ToolSet {

    @Tool
    @LLMDescription("查询订单详情,返回订单状态、金额、商品信息")
    public OrderInfo getOrderDetails(
        @LLMDescription("订单编号,格式为 ORD-2026-XXXXX") 
        String orderId
    ) {
        // 实际业务逻辑:查数据库或调用订单服务
        return orderService.findById(orderId);
    }

    @Tool
    @LLMDescription("批准退款申请,将订单状态改为 REFUNDING 并触发原路退回")
    public RefundResult approveRefund(
        @LLMDescription("订单编号") String orderId,
        @LLMDescription("退款原因,用于风控审计") String reason,
        @LLMDescription("审批人工号") String approverId
    ) {
        // 执行退款流程,记录审计日志
        return refundService.process(orderId, reason, approverId);
    }

    @Tool
    @LLMDescription("查询实时库存,返回可调配数量")
    public InventoryStatus checkInventory(
        @LLMDescription("SKU 编码") String sku,
        @LLMDescription("仓库编码,如 SH-01、BJ-02") String warehouseCode
    ) {
        return inventoryService.getRealTimeStock(sku, warehouseCode);
    }

    @Tool
    @LLMDescription("发送 Slack 通知给仓库管理员,催促补货")
    public void notifyRestock(
        @LLMDescription("SKU 编码") String sku,
        @LLMDescription("紧急程度:LOW/MEDIUM/HIGH") String urgency
    ) {
        slackClient.sendToChannel("warehouse-alerts", 
            String.format("⚠️ 库存告急 [%s],紧急程度:%s,请立即补货", sku, urgency));
    }

}

注意到@Tool@LLMDescription注解了吗?这些是 Spring AI 或 LangChain4j 提供的元数据标记,它们会告诉 LLM:"哥们,当你需要查订单时就调这个方法,参数得这么传"。LLM 会根据这些描述自动理解工具的用途,比你写死规则灵活多了。

第二步:OpenClaw 的 Skills 配置

OpenClaw 通过 Skills(技能包)来扩展能力。咱们创建ecommerce-skill目录,里面放SKILL.md文件:

yaml 复制代码
name: ECommerce Order Agent
description: 电商订单智能处理助手,负责退款审核、库存调配、异常订单跟进
tools:
  - getOrderDetails
  - approveRefund
  - checkInventory
  - notifyRestock
mcp:
  server: http://java-microservice:8080/mcp
---
你是电商运营中心的智能助理。处理订单相关请求时,请遵循以下原则:
1.  退款审核流程:
    - 先调用 getOrderDetails 查询订单状态
    - 如果订单金额 > 1000 元或状态不是 DELIVERED,必须询问人工确认
    - 批准退款前,确认用户已提供合理的退货原因
2.  库存调配规则:
    - VIP 客户(userLevel=GOLD)的缺货订单优先触发紧急补货
    - 普通客户先尝试从其他仓库调拨,调拨失败再通知补货
3.  异常处理:
    - 任何工具调用失败,立即记录错误并通知 @ops-team
    - 不要在没有明确授权的情况下修改订单状态

所有重要操作必须记录审计日志,包括操作人、时间、原因。

这个 Skill 文件遵循 OpenClaw 的规范,YAML Frontmatter 定义元数据,正文部分是系统提示词(System Prompt)。通过 MCP 配置,OpenClaw 能自动发现你的 Java 微服务暴露的工具。

第三步:OpenClaw 的部署配置

在你的服务器上创建docker-compose.yml

yaml 复制代码
version: '3.8'
services:
  openclaw-gateway:
    image: openclaw/gateway:v2026.3.7
    environment:
      - LLM_PROVIDER=anthropic
      - ANTHROPIC_API_KEY=${ANTHROPIC_API_KEY}
      - MEMORY_BACKEND=qmd  # 使用 QMD 混合检索内存
      - CONTEXT_ENGINE=enabled  # 启用 ContextEngine 插件
    volumes:
      - ./skills:/app/skills:ro
      - ./data:/app/data
    ports:
      - "3000:3000"
    networks:
      - ai-agent-network

  java-order-service:
    build: ./order-service
    environment:
      - SPRING_AI_OPENAI_API_KEY={OPENAI_API_KEY}
      - SPRING_AI_ANTHROPIC_API_KEY={ANTHROPIC_API_KEY}
    ports:
      - "8080:8080"
    depends_on:
      - postgres
      - redis
    networks:
      - ai-agent-network

  postgres:
    image: pgvector/pgvector:pg16
    environment:
      - POSTGRES_PASSWORD=secret
    volumes:
      - pgdata:/var/lib/postgresql/data

networks:
  ai-agent-network:
    driver: bridge

注意到MEMORY_BACKEND=qmd了吗?这是 OpenClaw 2026 年 3 月版本新增的实验性功能,结合了 BM25 文本检索、向量相似度计算和重排序,能让智能体记住长达数周的对话上下文。对于企业级应用来说,这种持久化记忆能力至关重要------客户上周投诉的问题,今天继续跟进时 AI 还能记得。

业务流自动化实战:让订单"自己跑起来"

现在咱们看一个具体场景:一个 VIP 客户申请退款,同时要求"如果退款太慢就直接发新货"。这种复杂的业务逻辑,以前得写一堆 if-else,现在让 AI 智能体自己判断。

场景剧本

  1. 客户在 App 提交退款申请:"这货等了一周还没到,我不要了,但急着用,你们看着办"
  2. 消息通过 Webhook 进入 OpenClaw
  3. OpenClaw 调用 Java 服务查询订单状态,发现物流确实卡在转运中心
  4. AI 决策:先批准退款(安抚客户),同时触发紧急补货(保住满意度),并给物流组发 Slack 警告(追责)
  5. 整个流程在 Slack 频道实时播报,运营人员随时可以介入

Java 侧的"决策支持"代码

为了让 AI 做出合理决策,咱们得给它提供决策上下文:

java 复制代码
@RestController
@RequestMapping("/api/agent")
public class AgentDecisionController {

    @PostMapping("/refund-decision-context")
    public DecisionContext getDecisionContext(@RequestBody OrderQuery query) {
        OrderInfo order = orderService.findById(query.getOrderId());
        UserProfile user = userService.findById(order.getUserId());
        LogisticsStatus logistics = logisticsService.track(order.getTrackingNumber());
        
        // 构建决策上下文,AI 会根据这些信息权衡
        return DecisionContext.builder()
            .orderAmount(order.getAmount())
            .userLevel(user.getVipLevel())  // GOLD/SILVER/NORMAL
            .delayDays(logistics.getDelayDays())
            .stockAvailable(inventoryService.checkGlobalStock(order.getSku()))
            .lastInteractionHistory(crmService.getRecentTickets(user.getId()))
            .suggestedAction(calculateSuggestedAction(order, logistics))
            .build();
    }

    private String calculateSuggestedAction(OrderInfo order, LogisticsStatus logistics) {
        if (logistics.getDelayDays() > 5 && order.getAmount() > 500) {
            return "REFUND_AND_RESEND";  // 高价值+严重延误,建议退款重发
        }
        return "STANDARD_REFUND";
    }
}

这段代码不直接做决策,而是把决策所需的全部信息打包给 AI。Spring AI 的ChatClient会自动将这些对象序列化为 JSON,作为工具调用的上下文。

OpenClaw 的自动化 Hook 配置

在 OpenClaw 里配置hooks.json,实现事件驱动:

json 复制代码
{
  "hooks": [
    {
      "name": "refund-request-handler",
      "trigger": {
        "type": "webhook",
        "endpoint": "/webhook/refund",
        "filter": "event.type == 'REFUND_REQUEST'"
      },
      "action": {
        "skill": "ECommerce Order Agent",
        "prompt": "收到退款申请:{{event.orderId}},客户留言:{{event.customerMessage}}。请查询订单状态、物流信息,并根据决策上下文给出处理建议。",
        "channels": ["slack:ops-channel"]
      }
    },
    {
      "name": "daily-inventory-check",
      "trigger": {
        "type": "cron",
        "schedule": "0 9 * * *"
      },
      "action": {
        "skill": "ECommerce Order Agent",
        "prompt": "执行每日库存巡检,检查所有 SKU 的库存水平,对低于安全库存的触发补货通知",
        "channels": ["slack:warehouse-alerts"]
      }
    }
  ]
}

这里有两个 Hook:一个是事件触发(收到退款申请立即处理),一个是定时触发(每天早上 9 点巡检库存)。OpenClaw 的 Cron 调度是内建的,不需要额外搞个 Quartz 或者 XXL-Job。

多智能体协作:复杂订单的"会诊"模式

对于特别复杂的订单(比如涉及跨境物流、海关清关、多渠道库存),单个智能体可能搞不定。这时候可以用多智能体编排:

java 复制代码
@Service
public class MultiAgentOrchestrator {

    @Autowired
    private ChatClient chatClient;

    public ComplexOrderResolution resolveComplexOrder(String orderId) {
        // 创建三个专业智能体
        Agent logisticsAgent = Agent.builder()
            .name("LogisticsSpecialist")
            .systemPrompt("你是物流专家,精通海关政策、转运规则、异常处理")
            .tools("trackPackage", "contactCarrier", "estimateClearanceTime")
            .build();
            
        Agent financeAgent = Agent.builder()
            .name("FinanceSpecialist")
            .systemPrompt("你是财务专家,负责退款策略、汇率计算、关税核算")
            .tools("calculateRefundAmount", "checkExchangeRate", "verifyTaxPaid")
            .build();
            
        Agent csAgent = Agent.builder()
            .name("CustomerSuccess")
            .systemPrompt("你是客户成功专家,负责沟通话术、满意度修复、补偿方案")
            .tools("sendApologyEmail", "issueCoupon", "escalateToHuman")
            .build();
        
        // 使用 Spring AI 的 Parallelization 模式并行 analyses = List.of(
            logisticsAgent.analyze(orderId),
            financeAgent.analyze(orderId),
            csAgent.analyze(orderId)
        ).parallelStream().map(CompletableFuture::join).toList();
        
        // 综合决策
        return chatClient.prompt()
            .system("你是订单仲裁官,综合以下三位专家的意见,给出最终处理方案:")
            .user(analyses.toString())
            .call()
            .entity(ComplexOrderResolution.class);
    }
}

这个例子用了并行工作流模式(Parallelization Workflow),三个专家智能体同时分析,最后由一个仲裁智能体综合决策。相比串行处理, latency 能降低 60% 以上。

企业级落地:别让 AI 变成"数字临时工"

把 AI 智能体搞进生产环境,光有功能是不够的。你得考虑容错、安全、可观测性这三座大山。

持久化与故障恢复

AI 智能体执行任务可能需要几分钟(尤其是涉及多个 API 调用时),如果这时候服务重启了怎么办?Koog 和 Spring AI 都支持持久化执行:

java 复制代码
@Service
public class DurableOrderProcessor {

    @Autowired
    private DaprWorkflowClient workflowClient;  // 或 Spring AI 的持久化抽象

    public String startRefundWorkflow(String orderId) {
        // 启动一个持久化工作流,状态自动保存到 PostgreSQL
        return workflowClient.startWorkflow(
            "RefundWorkflow",
            orderId,
            RefundInput.builder().orderId(orderId).build()
        );
    }
}

// 工作流定义,支持从任意步骤恢复
@Component
public class RefundWorkflow implements Workflow {
    @Override
    public void build(WorkflowBuilder builder) {
        builder
            .call("verifyOrder", this::verifyOrder)      // 第1步:验证
            .call("checkInventory", this::checkInventory) // 第2步:查库存
            .call("processRefund", this::processRefund)   // 第3步:执行退款
            .when(RefundResult::isSuccess, "notifyUser") // 成功分支
            .when(RefundResult::isFailure, "escalate");  // 失败分支
    }
}

这种耐久执行(Durable Execution)模式意味着,即使你的 Java 服务挂了 10 分钟,重启后工作流会从断点继续,而不是从头再来。对于涉及金钱交易的退款流程,这很关键。

安全隔离:防止 AI "发疯"

OpenClaw 的能力很强,但这也意味着风险------如果提示词被注入恶意指令,它可能误删数据。企业级部署必须做好权限隔离:

  1. 工具级别的最小权限:给 AI 用的数据库账号只有 SELECT 和特定存储过程的执行权限,没有 DROP TABLE 权限
  2. 网络隔离:OpenClaw 跑在独立的容器网络,通过 API 网关访问 Java 服务,不能直接连生产数据库
  3. 人工确认门:涉及资金操作(如退款超过 1000 元)时,AI 生成审批单但暂停执行,等人工在 Slack 点"确认"
  4. 审计日志:所有工具调用通过 OpenTelemetry 上报,记录谁(AI 智能体 ID)、在什么上下文、调用了什么接口
java 复制代码
@Configuration
public class AgentSecurityConfig {

    @Bean
    public ToolRegistry securedToolRegistry() {
        return ToolRegistry.builder()
            .tools(new ReadOnlyOrderTools())  // 只读工具集给 AI 用
            .toolInterceptor(new AuditLogInterceptor())  // 自动记录审计日志
            .toolInterceptor(new CostLimitInterceptor(1000.0))  // 单日成本上限
            .build();
    }
}

可观测性:看清 AI 的"脑回路"

生产环境的 AI 智能体必须是可观测的。你不能让 AI 像个黑盒一样做决策,运营团队需要知道:

  • 它为什么要批准这个退款?(推理链)
  • 调用了哪些 API?花了多长时间?(链路追踪)
  • 用了多少 Token?成本超预算了吗?(成本监控)

Spring AI 和 Koog 都原生支持 OpenTelemetry,在application.yml中配置:

yaml 复制代码
spring:
  ai:
    observability:
      enabled: true
      tracing:
        export:
          endpoint: http://otel-collector:4317
      metrics:
        token-usage: true
        cost-tracking: true

在 Jaeger 或 Langfuse 的控制台上,你能看到这样的追踪图:

复制代码
[Agent Decision: refund_approval]
├── LLM Call (Claude-4.6) - 2.3s, 1,200 tokens ($0.04)
├── Tool Call: getOrderDetails - 0.1s
├── Tool Call: checkInventory - 0.2s
├── Tool Call: notifyRestock - 0.3s
└── LLM Call (Response Generation) - 0.8s, 400 tokens ($0.01)

成本与收益:算笔明白账

部署成本

  1. 基础设施:OpenClaw 网关跑在 2C4G 的云主机上,月成本约 200 元;Java 微服务本来就有,增量成本几乎为零
  2. LLM API:Claude 4.6 Sonnet 的输入 3/百万 token,输出 15/百万 token。一个典型的退款处理流程约消耗 3000 token,成本约 $0.05(3 毛人民币)。如果一天处理 1000 单,月成本约 9000 元------比雇一个运营专员便宜多了
  3. 开发与维护:初期 Skills 开发约需 2 周(1 个 Java 后端+1 个 Prompt 工程师),后续维护主要是新增业务场景的技能包

实际收益

我们上线三个月后的数据:

  • 退款处理时效从平均 6 小时降到 8 分钟
  • 运营人员工作量减少 40%,释放出来的人力去做客户关怀(真正的增值工作)
  • 异常订单漏处理率从 3% 降到 0.2%

总结:Java + OpenClaw,企业 AI 的务实之选

2026 年的企业级 AI 落地,已经走过了"用 Python 快速试错"的阶段。对于需要长期维护、强合规、高可用的核心业务系统,Java 微服务 + OpenClaw 智能体网关是一个务实且可持续的选择。

这套方案的优势在于:

  • 渐进式改造:不需要推倒重来,从单个业务场景(如退款处理)开始试点,逐步扩展
  • 能力复用:现有的 Spring Security、监控体系、DevOps 流程全部沿用
  • 风险可控:通过工具权限隔离、人工确认门、持久化执行等机制,把 AI 的不可控性关在笼子里

当然,OpenClaw 目前还是快速迭代的阶段,2026 年 3 月的 v2026.3.7 版本才刚引入 ContextEngine 插件接口,生产部署时建议锁定具体版本,避免自动升级带来的兼容性问题。

最后提醒一句:AI 智能体不是来替代你的运营的,而是来处理那些规则写不完、变化特别快的边缘场景。那些标准化的、高并发的核心业务,还是交给传统的 Java 业务逻辑去处理最靠谱。两者结合,才是企业级 AI 的正确打开

无意间发现了一个巨牛巨牛巨牛的人工智能教程,非常通俗易懂,对AI感兴趣的朋友强烈推荐去看看,传送门

相关推荐
nap-joker2 小时前
使用Image - To - image条件生成对抗网络评估乳腺癌新辅助化疗反应的动态对比增强MRI血管渗透性映射
人工智能·神经网络·生成对抗网络
超级AI_mes2 小时前
智慧卤味,一码追溯:万界星空MES方案
人工智能·经验分享·5g·信息可视化·创业创新·制造·可视化ai
大囚长2 小时前
AI技术对VR发展的核心促进作用
人工智能·vr
xingyuzhisuan2 小时前
怎么快速在云上部署一个Stable Diffusion环境?(实操落地版)
人工智能·stable diffusion·ai绘画·gpu算力
Daydream.V2 小时前
OpenCV——人脸识别
人工智能·opencv·计算机视觉·人脸识别·人脸识别的三种算法·附代码实现
weixin_408099672 小时前
跨境电商OCR:3秒识别多语言商品标签
开发语言·图像处理·人工智能·后端·ocr·api·文字识别ocr
北京耐用通信2 小时前
赋能智能制造:耐达讯自动化CC-Link IE转EtherCAT网关的行业价值
人工智能·物联网·网络协议·自动化·信息与通信
tongxianchao2 小时前
A Survey of Token Compression for Efficient Multimodal Large Language Models
人工智能·语言模型·自然语言处理
半瓶榴莲奶^_^2 小时前
优先级队列(堆)
java·数据结构·算法