llm+agent,使用与 OpenAI 兼容的 API 格式

文章目录

  • [LLM + Agent 是什么](#LLM + Agent 是什么)
    • 信息流
      • [LLM 本身是无状态的处理器和Agent 的"记忆",怎么理解](#LLM 本身是无状态的处理器和Agent 的“记忆“,怎么理解)
        • [网页版的 ChatGPT 或 Claude 本身就是一个封装好的 Agent 系统。](#网页版的 ChatGPT 或 Claude 本身就是一个封装好的 Agent 系统。)
        • [如果真的"只有 LLM"会怎样?](#如果真的“只有 LLM”会怎样?)
        • [agent 记忆](#agent 记忆)
        • [Agent 是如何被写出来的。记忆?自动拼接上下文?什么时候查询数据库?什么时候调用"LLM?什么时候不在调用llm?](#Agent 是如何被写出来的。记忆?自动拼接上下文?什么时候查询数据库?什么时候调用”LLM?什么时候不在调用llm?)
        • [MCP(Model Context Protocol,模型上下文协议)](#MCP(Model Context Protocol,模型上下文协议))
          • [MCP 的核心架构:mcp客户端,mcp服务器,资源](#MCP 的核心架构:mcp客户端,mcp服务器,资源)
          • [MCP 实际上是一种基于 JSON-RPC 的通信协议](#MCP 实际上是一种基于 JSON-RPC 的通信协议)
            • [JSON-RPC 是什么](#JSON-RPC 是什么)
            • [API 和 JSON-RPC 是什么](#API 和 JSON-RPC 是什么)
            • [JSON-RPC 数据包的**"运输方式"**:stdin/stdout 或 HTTP](#JSON-RPC 数据包的**“运输方式”**:stdin/stdout 或 HTTP)
            • [SSE (Server-Sent Events) 是一种"单向常连"技术。它允许服务器在建立连接后,像源源不断的流水一样,主动把数据推送到客户端(Agent),而不需要客户端反复询问](#SSE (Server-Sent Events) 是一种“单向常连”技术。它允许服务器在建立连接后,像源源不断的流水一样,主动把数据推送到客户端(Agent),而不需要客户端反复询问)
            • sse与普通http区别
            • [流式(Streaming)是数据传输方式,SSE 是实现流式的一种技术](#流式(Streaming)是数据传输方式,SSE 是实现流式的一种技术)
          • [判断是否是MCP 客户端 (如支持mcp的Agent):](#判断是否是MCP 客户端 (如支持mcp的Agent):)
          • [判定一个服务器是否为 MCP 服务器的"三个标准"](#判定一个服务器是否为 MCP 服务器的“三个标准”)
            • [MCP 服务器的作用:MCP 是 Agent 和外部工具之间的桥梁/调度中心。如果工具在 MCP 上:直接调用函数。如果工具在外部服务:通过 HTTP / gRPC / RPC 调用](#MCP 服务器的作用:MCP 是 Agent 和外部工具之间的桥梁/调度中心。如果工具在 MCP 上:直接调用函数。如果工具在外部服务:通过 HTTP / gRPC / RPC 调用)
            • [为什么 MCP 可以统一调用工具](#为什么 MCP 可以统一调用工具)
        • agent怎么知道有哪些工具?llm怎么知道有哪些工具
      • [Agent 怎么知道发给哪个 LLM? 给agent配置哪个llm就用哪个](#Agent 怎么知道发给哪个 LLM? 给agent配置哪个llm就用哪个)
        • [Agent 发送请求到llm,需要 配置LLM 的哪些参数?](#Agent 发送请求到llm,需要 配置LLM 的哪些参数?)
          • 举例
            • [messages 列表 = Prompt,只是格式化成多条消息。system role = 设定模型身份/行为规则。user role = 用户输入/任务。assistant role 也是 Prompt(messages)的一部分,模型自身的角色,主要用于记录 LLM 自己之前的输出,让模型理解上下文、保持连贯性](#messages 列表 = Prompt,只是格式化成多条消息。system role = 设定模型身份/行为规则。user role = 用户输入/任务。assistant role 也是 Prompt(messages)的一部分,模型自身的角色,主要用于记录 LLM 自己之前的输出,让模型理解上下文、保持连贯性)
      • 怎么实现工具才能让agent调用
        • [tool/list 返回的内容,是 Schema 还是工具列表,以及谁生成 Schem](#tool/list 返回的内容,是 Schema 还是工具列表,以及谁生成 Schem)
  • [API 交互标准,OpenAI 定义了一套如何与大模型对话的接口规范(如 /v1/chat/completions)](#API 交互标准,OpenAI 定义了一套如何与大模型对话的接口规范(如 /v1/chat/completions))
    • [messages 里的角色有哪些](#messages 里的角色有哪些)
      • system
      • user
      • assistant
        • [Function Call 的本质](#Function Call 的本质)
      • [role: function(可选) → 标识这是工具调用结果](#role: function(可选) → 标识这是工具调用结果)
    • [什么是 SDK Software Development Kit(开发工具包)](#什么是 SDK Software Development Kit(开发工具包))
    • [什么叫 "兼容 OpenAI API"?使用与 OpenAI 兼容的 API 格式,什么意思?OpenAI API标准?](#什么叫 “兼容 OpenAI API”?使用与 OpenAI 兼容的 API 格式,什么意思?OpenAI API标准?)
      • ["调用 API 不一定要写 URL",URL 只是 HTTP REST 的形式;](#“调用 API 不一定要写 URL”,URL 只是 HTTP REST 的形式;)
        • [API 本质上就是 函数的远程版本。远程的函数](#API 本质上就是 函数的远程版本。远程的函数)
        • [调用 API 的形式。http api/grpc等都是rpc的实现方式](#调用 API 的形式。http api/grpc等都是rpc的实现方式)
          • [http rest](#http rest)
          • [gRPC / RPC / GraphQL / WebSocket 流式.也是调用远程函数,只是 协议不同](#gRPC / RPC / GraphQL / WebSocket 流式.也是调用远程函数,只是 协议不同)
          • [为什么"写了 URL 就是调用 API"。属于http rest形式调取api](#为什么“写了 URL 就是调用 API”。属于http rest形式调取api)
            • [http rest形式:API 调用的四个核心要素.models参数意义](#http rest形式:API 调用的四个核心要素.models参数意义)
        • [API 的协议层、实现方式和调用方式](#API 的协议层、实现方式和调用方式)
          • [API 的实现方式和对应调用示例](#API 的实现方式和对应调用示例)
      • [为什么 OpenAI SDK 可以换 URL 就调用别的 API?http rest形式调用api时,换url就是换api了。还可以使用openai sdk是因为别人的api的参数和返回结果与openai一样](#为什么 OpenAI SDK 可以换 URL 就调用别的 API?http rest形式调用api时,换url就是换api了。还可以使用openai sdk是因为别人的api的参数和返回结果与openai一样)
  • [OpenAI 在 2023 年之后给 AI 应用开发定义了一套"事实标准(de-facto standard)"](#OpenAI 在 2023 年之后给 AI 应用开发定义了一套“事实标准(de-facto standard)”)
    • [OpenAI 推动的"工具调用(Tool Calling / Function Calling)接口标准"](#OpenAI 推动的“工具调用(Tool Calling / Function Calling)接口标准”)
        • [Function Calling / Tool Calling 标准](#Function Calling / Tool Calling 标准)
      • [JSON Schema 作为工具参数标准](#JSON Schema 作为工具参数标准)
        • [SDK = Software Development Kit(软件开发工具包)](#SDK = Software Development Kit(软件开发工具包))
      • [Chat Message 协议,OpenAI 还定义了 对话消息结构标准](#Chat Message 协议,OpenAI 还定义了 对话消息结构标准)
        • [后来 Anthropic 提出了 Model Context Protocol (MCP)。把 OpenAI Function Calling 的思想扩展成跨工具协议](#后来 Anthropic 提出了 Model Context Protocol (MCP)。把 OpenAI Function Calling 的思想扩展成跨工具协议)
      • [OpenAI后来又加了一条标准:模型输出必须符合指定 JSON Schema](#OpenAI后来又加了一条标准:模型输出必须符合指定 JSON Schema)
  • [现在 AI 行业的架构是什么样](#现在 AI 行业的架构是什么样)
    • [目前 AI 行业形成了 两套标准体系:](#目前 AI 行业形成了 两套标准体系:)
  • Agent框架:典型功能:工具调用,记忆,任务规划等
    • [Agent 框架里的 任务规划(Planning)和任务拆分(Task Decomposition),核心其实不是复杂算法,而是 让 LLM 先当"规划器"再当"执行器"](#Agent 框架里的 任务规划(Planning)和任务拆分(Task Decomposition),核心其实不是复杂算法,而是 让 LLM 先当“规划器”再当“执行器”)
      • [任务拆分实现方式:Prompt-based Planning(最常见)](#任务拆分实现方式:Prompt-based Planning(最常见))
      • [任务拆分实现方式:ReAct(最经典 Agent 方法)。Thought → Action → Observation](#任务拆分实现方式:ReAct(最经典 Agent 方法)。Thought → Action → Observation)
        • [Agent 框架里的真实代码结构](#Agent 框架里的真实代码结构)
      • 任务拆分方式:Plan-and-Execute(更稳定)

LLM + Agent 是什么

"LLM + Agent",其实是目前 AI 领域很火的组合,它把 大语言模型(LLM, Large Language Model) 和 助手/智能体(Agent) 的能力结合起来,让模型不仅"会说",还"会做"

信息流




LLM 本身是无状态的处理器和Agent 的"记忆",怎么理解



网页版的 ChatGPT 或 Claude 本身就是一个封装好的 Agent 系统。



如果真的"只有 LLM"会怎样?
agent 记忆


agent短期记忆和长期记忆





p 复制代码
# 1. 接收到用户的新问题
user_input = "我去年在上海买的那把雨伞是什么颜色的?"

# 2. 调取【短期记忆】:看看刚才咱们聊了啥
short_term_context = memory_cache.get_recent_chat(limit=5) 
# 结果发现:刚才在聊今天的天气,没提到雨伞。

# 3. 触发【长期记忆】检索:因为短期记忆里找不到"雨伞"
# 开发者逻辑:如果短期没结果,就去翻"向量数据库"这个大档案柜
long_term_record = vector_db.search(query="上海 雨伞 颜色", top_k=1)
# 结果发现:2025年的一条记录显示"在上海买了一把【蓝色】折叠伞"。

# 4. 【主动管理】:开发者设计的"拼装逻辑"
# Agent 把搜到的档案、刚才的话、和你的新问题拼在一起
final_prompt = f"""
    你是 AI 助手。
    已知背景(长期记忆):{long_term_record}
    最近对话(短期记忆):{short_term_context}
    用户的新问题:{user_input}
    请根据以上信息回答。
"""

# 5. 最后把这个"大包"发给 LLM(天才厨师)
response = LLM.generate(final_prompt)

# 6. 【存入逻辑】:开发者决定这句话值不值得记一辈子
if "记住" in user_input or "偏好" in user_input:
    vector_db.save(user_input) # 存进档案柜
agent记忆存在哪里






举例:假设你有一个包含 100 个文件的项目,你想让 AI 帮你改一个登录 Bug




Agent 是如何被写出来的。记忆?自动拼接上下文?什么时候查询数据库?什么时候调用"LLM?什么时候不在调用llm?

记忆

拼接历史上下文

什么时候查询

什么时候调用llm



什么时候不在调用llm






MCP(Model Context Protocol,模型上下文协议)





MCP 的核心架构:mcp客户端,mcp服务器,资源


MCP 实际上是一种基于 JSON-RPC 的通信协议







JSON-RPC 是什么




API 和 JSON-RPC 是什么


JSON-RPC 数据包的**"运输方式"**:stdin/stdout 或 HTTP












SSE (Server-Sent Events) 是一种"单向常连"技术。它允许服务器在建立连接后,像源源不断的流水一样,主动把数据推送到客户端(Agent),而不需要客户端反复询问






sse与普通http区别





流式(Streaming)是数据传输方式,SSE 是实现流式的一种技术









判断是否是MCP 客户端 (如支持mcp的Agent):







判定一个服务器是否为 MCP 服务器的"三个标准"



MCP 服务器的作用:MCP 是 Agent 和外部工具之间的桥梁/调度中心。如果工具在 MCP 上:直接调用函数。如果工具在外部服务:通过 HTTP / gRPC / RPC 调用
为什么 MCP 可以统一调用工具

统一注册:所有工具在 MCP 上注册,包含名字、接口类型、参数格式

统一调度:agent根据function_call,按照json_rpc格式,发送到mcp服务器,mcp服务器自动路由到对应工具

统一返回:把工具执行结果按照json_rpc的格式返回agent,agent解析后,把工具执行结果封装成 role=function 消息返回 LLM

安全与权限控制:MCP 可以限制哪些工具可调用




api/json-prc

agent怎么知道有哪些工具?llm怎么知道有哪些工具



agent调用工具怎么知道要输入哪些内容,哪些参数

Agent 是通过工具的参数 schema + LLM 语义理解,自动推断并填充工具参数的

复制代码
    +--------------------+
    |      User          |
    +---------+----------+
              |
              v
    +---------+----------+
    |    Agent Controller |  ← 负责循环控制、判断是否继续执行
    +---------+----------+
              |
     +--------+--------+
     | Planner / Task  |  ← 负责拆解复杂任务、生成子任务
     +--------+--------+
              |
     +--------v--------+
     |      LLM        |  ← **实际决策者**
     |  (Reasoning)    |     - 决定下一步做什么
     |                 |     - 选择调用哪个工具
     |                 |     - 填充工具参数
     +--------+--------+
              |
    +---------v---------+
    |   Tool Executor   |  ← Agent执行层,负责调用工具
    +---------+---------+
              |
    +---------v---------+
    |      Tools        |  ← 外部能力(API / DB / Python / File System)
    +---------+---------+
              |
    +---------v---------+
    |    Observation    |  ← 工具返回结果,回传给 LLM
    +---------+---------+
              |
    +---------v---------+
    |      Memory       |  ← Agent状态管理
    |  (short/long-term) | 记录上下文、中间结果
    +-------------------+
              |
              +---------------------> 循环回 LLM





例子


j 复制代码
{
  "name": "get_weather",
  "description": "Get weather information for a city",
  "parameters": {
    "type": "object",
    "properties": {
      "city": {
        "type": "string",
        "description": "city name"
      },
      "unit": {
        "type": "string",
        "enum": ["celsius", "fahrenheit"]
      }
    },
    "required": ["city"]
  }
}








Agent 怎么知道发给哪个 LLM? 给agent配置哪个llm就用哪个

Agent 发送请求到llm,需要 配置LLM 的哪些参数?

一般来说,Agent 通过 API 调用 LLM,需要提供 三个核心参数:

参数 作用
Provider / Base URL 就是模型运行在哪个服务器的地址,它通常指 LLM 提供商的 API 接口地址,告诉 Agent 要把请求发送到哪台服务器,让 LLM 收到任务,
API Key / Access Token 身份验证,用来让 Agent 授权访问 LLM ,类似客户端要验证有资格访问服务器
Model ID 告诉服务器用哪个模型来处理请求,比如 gpt-5.2claude-instant-1
可选参数 max_tokens、temperature、top_p 等生成控制参数

Provider / Base URL

API Key / Access Token


Model ID

举例


messages 列表 = Prompt,只是格式化成多条消息。system role = 设定模型身份/行为规则。user role = 用户输入/任务。assistant role 也是 Prompt(messages)的一部分,模型自身的角色,主要用于记录 LLM 自己之前的输出,让模型理解上下文、保持连贯性








怎么实现工具才能让agent调用








p 复制代码
def mcp_executor(tool_call: dict) -> dict:
    tool_name = tool_call["tool_name"]
    params = tool_call.get("parameters", {})
    
    # 找到对应工具
    tool = next(t for t in mcp_tools if t["name"] == tool_name)
    
    # 执行函数
    try:
        result = tool["func"](**params)
        return {
            "tool_name": tool_name,
            "status": "success",
            "result": result
        }
    except Exception as e:
        return {
            "tool_name": tool_name,
            "status": "error",
            "result": str(e)
        }
tool/list 返回的内容,是 Schema 还是工具列表,以及谁生成 Schem






API 交互标准,OpenAI 定义了一套如何与大模型对话的接口规范(如 /v1/chat/completions)

OpenAI 定义了一种"程序怎么调用大模型"的 API 写法,后来几乎所有模型公司都照着做了。

所以它被称为 事实标准(de facto standard)。



messages 里的角色有哪些


system

user

assistant

Function Call 的本质
s 复制代码
{"role": "assistant", "content": "我需要查天气。", 
"function_call": {"name": "get_weather",
 "arguments": "{ \"city\": \"Beijing\" }"}},



role: function(可选) → 标识这是工具调用结果

工具调用的结果在 OpenAI 的 Chat API 里会以 role = "function" 的消息形式返回给模型,模型再根据这个内容生成回答。

工具调用的结果不是直接文本,而是 role=function 的消息传回给模型,模型再把它整理成用户可读的回答。



什么是 SDK Software Development Kit(开发工具包)


什么叫 "兼容 OpenAI API"?使用与 OpenAI 兼容的 API 格式,什么意思?OpenAI API标准?






"调用 API 不一定要写 URL",URL 只是 HTTP REST 的形式;

API 本质上就是 函数的远程版本。远程的函数
调用 API 的形式。http api/grpc等都是rpc的实现方式


http rest

"调用 API 不一定要写 URL",URL 只是 HTTP REST 的形式;SDK、Agent 框架、CLI、Webhook

等都是不同的封装形式,底层其实还是调用同一个 API,只是你不用自己拼 URL。

gRPC / RPC / GraphQL / WebSocket 流式.也是调用远程函数,只是 协议不同
为什么"写了 URL 就是调用 API"。属于http rest形式调取api



http rest形式:API 调用的四个核心要素.models参数意义


Model(模型参数)





API 的协议层、实现方式和调用方式

协议 / 数据格式"是什么?

协议 = 规则

就像你和朋友约定"聊天时要遵守的规则":谁先说,谁回答,用什么语言,说完怎么确认收到。

网络上,协议就是计算机之间通信必须遵守的规则,保证双方能理解对方发送的信息。

数据格式 = 规定消息里写的内容怎么排列,就像写信用什么语言和排版。

简单理解:协议是传输规则,数据格式是内容排版。

协议 = 你用什么方式寄信:普通邮寄 / 快递 / 高速专线(HTTP / HTTP2 / WebSocket/sse)

数据格式 = 信里怎么写:用中文、英文、二进制编码(JSON / protobuf)。

协议 / 数据格式 = 消息怎么从你电脑传到服务器

不同协议:HTTP、HTTP/2、WebSocket

不同格式:JSON、protobuf

组合使用:

HTTP + JSON → 普通 API 调用

HTTP/2 + protobuf → gRPC 高效调用

WebSocket + JSON → 流式实时返回

实现方式 说明 调用方式 协议 / 数据格式
HTTP REST API 最常见,适合跨语言、跨平台 用 HTTP 请求(GET/POST)调用接口 HTTP/HTTPS(一套在网络上发送请求和响应的规则,一种传输规则) + JSON
gRPC 高性能,支持双向流和大量调用 生成客户端 stub,像本地函数一样调用 HTTP/2 + protobuf(二进制)
GraphQL API 客户端按需查询字段 HTTP POST,发送 GraphQL 查询语句 HTTP/HTTPS + GraphQL 文本
JSON-RPC API 轻量远程函数调用协议 HTTP/POST 或 WebSocket或sse 发送 JSON-RPC 请求 HTTP / WebSocket(流式协议)/sse(流式协议) + JSON
WebSocket / SSE 流式 API 实时推送,适合长连接和流式返回 建立 WebSocket 或 SSE 连接,持续发送/接收消息 WebSocket(流式协议) / SSE(流式协议) + JSON
详细解释




调用方式(风格) → 逻辑上"我怎么告诉服务端我想干什么"

REST、gRPC、GraphQL、JSON-RPC、WebSocket

实现方式(协议+数据格式) → 技术上"数据怎么在网络上传输"

HTTP + JSON、HTTP/2 + protobuf、WebSocket + JSON

选择方式:

如果服务端是 REST → 只能用 HTTP + JSON

如果服务端是 gRPC → 生成 stub,用 HTTP/2 + protobuf

如果服务端支持流式 → WebSocket / SSE

API 的实现方式和对应调用示例




选择哪一种形式

具体使用哪种形式,取决于几个因素:

API 的实现方式

如果服务端是 REST API → 只能用 HTTP 请求调用

如果服务端是 gRPC → 需要生成对应语言的 gRPC stub 调用

如果支持 JSON-RPC → 按 JSON-RPC 协议请求

换句话说,客户端调用方式必须匹配服务端实现协议

API(Application Programming Interface)

概念:接口的总称,指"调用某个功能的方法或约定"

广义理解:任何一种程序可以调用另一个程序功能的方式

实现方式多种多样:

HTTP REST API

gRPC

GraphQL

JSON-RPC

WebSocket / 流式 API

API = "抽象接口",不限定协议和数据格式

为什么 OpenAI SDK 可以换 URL 就调用别的 API?http rest形式调用api时,换url就是换api了。还可以使用openai sdk是因为别人的api的参数和返回结果与openai一样



OpenAI 在 2023 年之后给 AI 应用开发定义了一套"事实标准(de-facto standard)"

OpenAI 推动的"工具调用(Tool Calling / Function Calling)接口标准"

Function Calling / Tool Calling 标准


JSON Schema 作为工具参数标准

JSON Schema 在工程里的三个典型用途。很多人第一次看到会懵,因为它其实是在说 Schema = 一种机器可读的接口说明书



SDK = Software Development Kit(软件开发工具包)





Chat Message 协议,OpenAI 还定义了 对话消息结构标准

后来 Anthropic 提出了 Model Context Protocol (MCP)。把 OpenAI Function Calling 的思想扩展成跨工具协议

OpenAI后来又加了一条标准:模型输出必须符合指定 JSON Schema

五、OpenAI后来补充的标准

2023 → 2025 OpenAI不断补充。

主要新增:

1 Tool Calling(工具调用升级)

支持:

多工具

并行调用

自动选择

例如:

tools=[search, weather, db]

AI自己选。

2 Strict Mode

保证输出 100%符合 Schema。

例如:

"strict": true

否则会报错。

3 Streaming Tool Calls

工具参数可以 边生成边调用。

降低延迟。

4 Parallel Tool Calls

AI一次调用多个工具。

例如:

查天气

查航班

查酒店

同时执行。

七、后续的新标准(不是 OpenAI)

最近 AI 生态又出现 两个新的协议:

1 MCP(Model Context Protocol)

作用:

标准化 AI 如何接工具。

流程:

Agent

MCP server

Tool

很多 IDE 在用:

Cursor

Claude Desktop

Windsurf

2 A2A(Agent to Agent)

让 AI 与 AI 协作。

例如:

规划Agent

编码Agent

测试Agent

互相通信。

八、整个 AI 标准体系(现在)

目前行业结构是:

LLM

│ Function Calling(OpenAI)

Agent Framework

│ MCP(工具协议)

Tools / APIs

再往上是:

Multi-Agent

(A2A)

Agents SDK

最新 Agent 标准:

https://platform.openai.com/docs/agents

包括:

tool

memory

workflow

tracing

现在 AI 行业的架构是什么样

复制代码
AI应用层
(ChatGPT / AI产品 / AI SaaS)

        ↓

Agent框架层
(LangChain / LlamaIndex / CrewAI / AutoGPT)

        ↓

Agent协议层
(OpenAI Tool Calling / JSON Schema)

        ↓

模型层
(OpenAI / Anthropic / Google / Meta)

        ↓

算力层
(Nvidia GPU / 云计算)

目前 AI 行业形成了 两套标准体系:

Agent框架:典型功能:工具调用,记忆,任务规划等

Agent 框架里的 任务规划(Planning)和任务拆分(Task Decomposition),核心其实不是复杂算法,而是 让 LLM 先当"规划器"再当"执行器"



任务拆分实现方式:Prompt-based Planning(最常见)


任务拆分实现方式:ReAct(最经典 Agent 方法)。Thought → Action → Observation

在 Thought → Action → Observation(ReAct 模式) 里:

Thought = LLM 内部生成的意图 / 下一步计划

Action = 调用工具(role=function)

Observation = 工具执行结果返回模型(role=function)

Observation 就是把 Action 执行后的结果返回给 LLM,让 LLM"看到"这个结果,再继续推理。




Agent 框架里的真实代码结构


任务拆分方式:Plan-and-Execute(更稳定)


相关推荐
IT_陈寒1 小时前
Vue组件复用率提升300%?这5个高阶技巧让你的代码焕然一新!
前端·人工智能·后端
jkyy20141 小时前
破局家电同质化:智能冰箱+主动健康,解锁家庭健康新赛道
大数据·人工智能·健康医疗
王知无(import_bigdata)1 小时前
一个极简的AI Agentic Engineering技术栈学习路线
人工智能·学习
ToB营销学堂2 小时前
B2B AI内容实战指南:AI提效 x GEO获客 x 增长闭环
人工智能·geo·b2b营销获客
东离与糖宝2 小时前
Java 玩转 AI 智能体性能优化:OpenClaw 高并发调用与 Token 成本控制实战
java·人工智能
芯片-嵌入式2 小时前
具身智能(3):有哪些AI模型
人工智能·深度学习·机器学习
skywalk81632 小时前
在LMStudio中使用microsoft_Fara-7B 模型(未实践)
人工智能·microsoft
cxr8282 小时前
创建专业虚拟一人公司的 Skills 深度对比分析
人工智能·ai智能体·openclaw
未来之窗软件服务2 小时前
vosk-ASR python调用[AI人工智能(五十一)]—东方仙盟
人工智能·vosk·仙盟创梦ide·东方仙盟