llama.cpp 全方位技术指南:从底层原理到实战部署

Part 1: llama.cpp 的核心原理

Section 1: 高性能本地推理导论

在人工智能领域,大型语言模型(LLM)的兴起无疑是一场技术革命。然而,这场革命的果实最初似乎只属于拥有强大云服务器和昂贵硬件的巨头。传统的LLM,通常在PyTorch等框架中训练,对显存(VRAM)和专用硬件(如高端NVIDIA GPU)有着极高的要求,这使得在普通消费级设备上运行它们成为一项巨大的挑战 [1]。

正是在这样的背景下,llama.cpp 应运而生,它不仅是一个项目,更是一场将强大AI能力"拉下云端"的运动。llama.cpp 是一个开源项目,完全由纯C/C++编写,其核心设计理念是实现零外部依赖,从而能够在最少的设置下,在从强大的云服务器到日常使用的笔记本电脑,乃至智能手机等各种硬件上实现顶尖的性能 [3]。

llama.cpp 的核心哲学可以概括为以下几点:

  • 极简与可移植性:纯C/C++实现意味着它摆脱了复杂的Python环境和沉重的依赖库,使其能够轻松地在任何地方编译和运行 [5]。
  • CPU优先的优化:尽管llama.cpp现在已经拥有强大的GPU支持,但它的初心是让LLM在普通中央处理器(CPU)上高效运行。这使其在众多依赖GPU的推理框架中独树一帜,成为其独特的卖点 [7]。
  • 极致性能:通过深入底层的硬件指令集优化,以及一项名为"量化"的关键技术,llama.cpp实现了惊人的性能表现 [2]。

llama.cpp的出现不仅仅是一项技术突破,它更催生了一场文化变革。最初,像Meta的LLaMA这样强大的模型仅限于拥有顶级硬件的研究人员 [10]。llama.cpp的诞生,正是为了打破这一壁垒,使得这些先进模型能够在消费级硬件上、甚至仅凭CPU就能运行 [4]。这种前所未有的可及性迅速点燃了全球开发者社区的热情,吸引了大量的贡献者,并催生了一个繁荣的生态系统,包括Ollama、LM Studio等众多建立在其基础之上的工具 [11]。因此,llama.cpp的意义远不止于一个推理引擎;它为一类全新的、以本地化为核心的应用奠定了技术基石,赋予了此前被高昂硬件门槛拒之门外的广大开发者使用和创造AI的能力,从根本上改变了AI领域的格局。

Section 2: ggml张量库:llama.cpp的基石

要理解llama.cpp如何施展其"魔法",就必须深入其核心------ggml张量库。ggml是由llama.cpp的创始人Georgi Gerganov开发的C语言机器学习库,专注于张量运算、高效的内存管理和跨平台性能 [4]。实际上,llama.cpp本身就是ggml库新功能开发和验证的主要试验场 [5]。

与PyTorch等高级框架不同,ggml的设计哲学体现了一种"贴近硬件"的优化思路,这正是llama.cpp高性能与高移植性的根源。

  • 计算图(Computation Graphs) :ggml的一个核心机制是它不会立即执行张量运算。相反,它会构建一个计算图(ggml_cgraph),这个图本质上是描述了所有计算步骤的"蓝图"或"执行顺序" [6]。这种延迟执行的策略允许ggml的后端在实际计算开始前,对整个流程进行全局优化,例如智能地为计算过程中产生的中间张量分配和复用内存,从而将内存占用降至最低 [6]。
  • 硬件抽象层(ggml_backend) :ggml通过一个强大的后端系统,将底层的硬件细节抽象出来。这意味着同一份计算图可以在完全不同的硬件上执行,而无需修改上层代码。这个系统是llama.cpp能够在众多平台上大放异彩的关键 [6]。
    • CPU优化:针对x86架构,它支持AVX、AVX2和AVX512指令集;针对ARM架构,则利用NEON和I8MM指令集进行加速 [3]。
    • GPU加速:它为苹果的Apple Silicon芯片提供了Metal支持,为NVIDIA显卡提供了CUDA支持,为AMD显卡提供了ROCm/HIP支持,甚至还通过Vulkan实现了更广泛的跨平台GPU加速 [4]。
  • 精密的内存管理 :ggml对内存管理有着极其严格的控制,其目标之一是在模型运行时实现"零内存分配",这对于在内存有限的设备上获得可预测的、稳定的性能至关重要 [4]。其中一项关键优化是mmap()的应用。mmap()是一种内存映射文件I/O技术,它允许程序将文件内容直接映射到进程的地址空间。这意味着模型权重无需完全读入RAM,操作系统可以根据需要懒加载文件的部分内容。这带来了两个革命性的好处:一是模型加载速度接近瞬时,二是多个llama.cpp进程可以共享同一份只读的模型权重内存,极大地节省了系统资源 [19]。

ggml的底层设计理念是其强大能力的直接体现。PyTorch和TensorFlow等框架为了研究和训练的灵活性,引入了大量的抽象层,导致了显著的运行时开销和庞大的库体积 [6]。相比之下,ggml的目标纯粹而明确:实现最高效的推理。它通过成为一个无依赖的、极简的C库,并赋予开发者对内存和计算的直接控制权来实现这一目标 [6]。这种底层控制能力使得针对特定硬件(如ARM的I8MM指令 [16])的深度优化成为可能,而这在通用框架中是难以实现的。然而,这种对单流效率的极致追求也意味着它缺少像vLLM等面向服务器的框架所具备的复杂请求调度和动态批处理(batching)机制。性能测试明确显示,无论并发请求量多大,llama.cpp的吞吐量都几乎保持不变,而vLLM则能随负载增加而扩展 [20]。因此,ggml的设计是一把双刃剑:它成就了llama.cpp在本地和边缘设备上无与N伦比的地位,同时也决定了它不适用于需要处理大量并发请求的生产级服务场景。这恰恰说明,llama.cpp是一个为其特定目标而完美设计的工具。

Section 3: GGUF文件格式:本地模型的统一标准

如果说ggml是llama.cpp的引擎,那么GGUF(GPT-Generated Unified Format)就是它的标准化燃料。模型格式的转换是使用llama.cpp的核心流程,而理解GGUF是掌握这一流程的关键。

  • 从GGML到GGUF的演进:最初,llama.cpp使用一种名为GGML的文件格式。然而,GGML格式存在一些固有缺陷,主要是其灵活性不足,并且随着项目的快速迭代,频繁出现不向后兼容的"破坏性更新",给用户和开发者带来了诸多不便 [15]。
  • GGUF的诞生 :为了彻底解决这些问题,llama.cpp社区在2023年8月推出了GGUF格式 [4]。GGUF的设计目标清晰明确:
    • 可扩展性(Extensibility):允许向模型文件中添加新的元数据,而不会破坏旧版本软件的兼容性 [21]。
    • 稳定性(Stability):致力于消除破坏性更新,确保生态系统的稳定发展 [21]。
  • GGUF文件结构剖析 :一个GGUF文件是一个精心设计的二进制文件,其内部结构按顺序排列,清晰明了 [22]:
    • 文件头(Header) :固定大小的区域,包含一个用于识别文件类型的"魔数"(即ASCII字符GGUF),以及文件格式版本、张量数量和元数据键值对数量等基本信息 [22]。
    • 元数据区(Metadata Key-Value Store):这是GGUF最具革命性的部分。它是一个灵活的键值对存储区,可以容纳关于模型的任意信息,例如模型架构、超参数、开发者信息、许可证,甚至包括了运行模型所必需的聊天模板(chat template)和分词器(tokenizer)数据 [22]。
    • 张量信息区(Tensor Info):该区域包含了模型中每一个张量(即权重矩阵)的描述信息,如张量的名称、维度、数据类型以及它在文件中的具体位置(偏移量) [22]。
    • 张量数据区(Tensor Data):文件的最后部分,存储了模型所有真实的权重数据。这些数据经过了特定的对齐处理,以便最高效地利用内存映射(mmap)技术 [22]。
  • GGUF的核心优势
    • 自包含性(Self-Contained) :一个GGUF文件包含了运行模型所需的一切。用户不再需要像以前那样,在下载模型权重的同时,还要寻找匹配的tokenizer.jsonconfig.json等配置文件。这使得模型的分享和使用变得前所未有的简单,真正实现了"即插即用" [9]。
    • 快速加载 :为mmap而优化的设计,使得操作系统可以按需将文件的部分内容加载到内存中,从而实现了几乎瞬时的模型加载速度,并显著降低了初次运行时的内存占用 [19]。
    • 生态标准化:凭借其稳定性和易用性,GGUF迅速成为本地AI社区分发和运行量化模型的黄金标准,被Ollama、GPT4All等众多流行工具广泛采用 [11]。

GGUF的推出,是llama.cpp项目发展中的一个战略性里程碑,它巩固了该项目在本地AI生态系统中的核心地位。旧的GGML格式因其脆弱和频繁的破坏性更新,严重阻碍了稳定生态的形成 [21]。GGUF通过引入向后兼容的设计和可扩展的元数据系统,彻底解决了这一痛点 [21]。更重要的是,通过将分词器数据和聊天模板等关键信息直接打包进单一文件,GGUF极大地简化了终端用户的使用流程,消除了一个主要的障碍 [22]。这种无与N伦比的易用性和稳定性,促使Ollama等其他流行工具纷纷采纳GGUF标准,而这些工具的底层往往也依赖于llama.cpp或ggml [11]。因此,GGUF的意义超越了一个文件格式的改进,它更像是一次生态系统的构建行动。它创造了一个可靠的、通用的"语言",让其他项目能够在此基础上繁荣发展,而llama.cpp则始终作为这个生态系统的核心参考实现。

Section 4: 量化艺术:平衡模型尺寸与性能

量化是llama.cpp的"秘密武器",也是它能让庞大模型在普通硬件上运行的核心技术。简单来说,量化就是通过降低模型权重参数的数值精度(例如,从32位浮点数降至4位整数),来大幅压缩模型的体积并加速计算的过程 [1]。这对于突破消费级硬件的内存带宽瓶颈至关重要 [9]。

  • GGUF量化命名法 :为了方便用户选择,GGUF的量化模型遵循一套清晰的命名约定:Q{N}_{Type}_{Variant} [15]。
    • Q:代表"Quantized"(已量化)。
    • {N}:代表每个权重所占用的比特数,如2、3、4、5、6、8。数字越小,压缩率越高。
    • {Type} :代表量化策略。现代llama.cpp主要使用"K-quants"(以_K结尾),这种方法通过更智能的比特分配策略,通常比旧的"legacy"量化方法(以_0_1结尾)在同等比特率下提供更好的模型质量 [29]。
    • {Variant} :代表块大小(block size),如_S(小)、_M(中)。块是量化操作的基本单元,块大小的选择会影响量化粒度和元数据开销之间的平衡 [15]。
  • 常见量化方法巡礼 :在Hugging Face等社区中,用户会看到各种不同后缀的GGUF文件,以下是一些最常见方法的解读:
    • Q8_0:8位量化。这种方法的精度损失极小,模型表现几乎与原始的16位浮点模型无异,但文件体积也是量化模型中最大的。适用于对模型准确度要求极高的场景 [1]。
    • Q6_K:6位K-quant量化。这是一个高质量的选择,在显著减小模型体积的同时,保持了非常优秀的性能 [25]。
    • Q5_K_M:5位K-quant,中等块大小。这通常被认为是"最佳平衡点"之一,在模型质量和文件大小之间取得了极佳的平衡,深受社区推荐 [1]。
    • Q4_K_M:4位K-quant,中等块大小。这是另一个极其流行的选择,提供了与Q5_K_M相似的优异平衡,但文件体积更小,适用于内存更受限的设备 [1]。
    • 更低比特的量化(Q3, Q2, IQ):对于追求极致压缩率的用户,还存在3位、2位甚至更激进的量化方法。例如,最新的IQ系列量化。这些方法可以得到最小的模型文件,但通常会伴随更明显的性能下降,并且可能引入一些性能上的意外情况(例如,I-quants可能因其复杂的解压算法而受限于CPU计算速度,而非内存带宽) [29]。
  • 性能权衡三角:选择量化方法的核心在于理解一个简单的权衡关系:模型尺寸、推理速度和模型准确度。通常,更低的比特数意味着更小的模型尺寸和更快的推理速度(因为从内存中读取的数据更少),但代价是模型准确度(通常用困惑度Perplexity来衡量)的轻微下降 [27]。

为了帮助用户做出直观的选择,下表总结了常用GGUF量化方法的特性。

量化类型 每权重有效比特数 (bpw) 相对大小 (vs FP16) 通用质量/困惑度 推荐使用场景
F16 16.00 100% 基准 (无损) 拥有充足RAM/VRAM,追求最高精度的研究或评估。
Q8_0 8.00 ~50% 极高质量,几乎无损 对模型准确度有严格要求,但希望节省一半空间和内存。
Q6_K 6.56 ~41% 非常高质量 在高质量和显著压缩之间取得良好平衡的选择。
Q5_K_M 5.53 ~35% 高质量,社区公认的最佳平衡点之一 兼顾模型质量与文件大小的最佳选择,适用于大多数日常应用。
Q4_K_M 4.50 ~28% 优良质量,另一个广受欢迎的平衡点 在内存受限设备上获得良好性能的理想选择。
Q3_K_M 3.44 ~22% 可接受质量,有一定性能下降 追求极致压缩率,适用于内存极度受限的设备。
Q2_K 2.56 ~16% 质量下降明显,可能不适用于复杂任务 仅在模型能装入内存是首要考虑时使用。

Part 2: llama.cpp 端到端实战指南

理论知识是基础,但真正的乐趣在于实践。本部分将从零开始,一步步指导您完成从环境搭建到运行模型的完整llama.cpp工作流。

Section 5: 环境搭建与编译

要使用llama.cpp的强大功能,第一步是将其从源代码编译成可在您的机器上运行的可执行文件。

  1. 安装必备工具 :在开始之前,请确保您的系统已安装必要的编译工具。

    • Linux :需要gitmakeg++(或clang)以及cmake。您可以通过系统的包管理器轻松安装它们(例如,在Ubuntu上使用sudo apt install build-essential git cmake) [28]。
    • macOS :最简单的方法是安装Xcode命令行工具。在终端中运行xcode-select --install即可 [32]。
    • Windows:需要安装Visual Studio,并在安装时勾选"使用C++的桌面开发"工作负载,同时确保已包含"适用于Windows的C++ CMake工具"组件 [32]。
  2. 克隆llama.cpp仓库 :打开终端(在Windows上是Developer Command Prompt for VS),运行以下命令来获取最新的源代码:

    bash 复制代码
    git clone https://github.com/ggerganov/llama.cpp.git
    cd llama.cpp

    34

  3. 使用cmake进行编译cmake是现代推荐的、跨平台的构建系统。

    • 仅CPU编译(通用) :这是最基础的编译方式,不依赖任何特定的GPU加速库。

      bash 复制代码
      # 创建一个构建目录
      cmake -B build
      # 开始编译
      cmake --build build --config Release

      这个过程会在项目根目录下创建一个build文件夹,并将所有编译生成的可执行文件放置其中 [33]。

    • NVIDIA GPU编译(CUDA) :如果您拥有NVIDIA显卡并已安装CUDA Toolkit,可以通过添加一个CMake标志来启用GPU加速。

      bash 复制代码
      cmake -B build -DLLAMA_CUBLAS=ON
      cmake --build build --config Release

      -DLLAMA_CUBLAS=ON标志会告诉cmake在编译时链接CUBLAS库,从而启用CUDA加速 [28]。

    • Apple Silicon编译(Metal) :在macOS上,特别是使用M系列芯片的设备,可以启用Metal来获得GPU加速。

      bash 复制代码
      cmake -B build -DLLAMA_METAL=ON
      cmake --build build --config Release

      这将利用Apple的Metal图形API来执行计算,大幅提升性能 [37]。

  4. 找到您的工具 :编译成功后,所有强大的工具都位于build/bin/目录下。您会找到main(或llama-cli)、quantizeserver等核心程序 [36]。

Section 6: 完整的模型准备工作流

这部分是整个指南的核心实践环节,它将详细展示如何将一个标准的Hugging Face模型,一步步转换成您可以在本地高效运行的量化GGUF文件。这个流程体现了llama.cpp生态系统的一个精心设计:它将格式转换与量化优化解耦,形成一个模块化的两步流程。这种设计极具效率,因为它允许用户先完成一次从Python原生格式到GGUF的、相对耗时和消耗内存的转换,生成一个高质量的F16.gguf"母版"文件。之后,用户便可以基于这个母版文件,快速、轻量地生成各种不同量化级别的GGUF版本进行实验,而无需每次都从头开始,这极大地鼓励了用户根据自己的硬件和需求进行探索和优化 [40]。

6.1. 获取基础模型

我们的旅程始于Hugging Face Hub,这里是绝大多数开源模型的家园。模型通常以PyTorch的.bin或更现代的safetensors格式存储 [43]。我们将以一个社区广受欢迎的小型模型Mistral-7B-Instruct-v0.2作为示例。

在终端中运行以下命令来下载模型文件:

bash 复制代码
# 建议安装git-lfs以处理大文件
git lfs install
# 克隆模型仓库
git clone https://huggingface.co/mistralai/Mistral-7B-Instruct-v0.2

27

6.2. 转换为高精度GGUF(FP16)

这是最关键的第一步。我们将使用llama.cpp仓库中提供的convert.py脚本(在较新版本中可能名为convert_hf_to_gguf.py)。最佳实践是首先将模型转换为f16(16位浮点数)精度的GGUF文件。这会创建一个高质量、未量化的基础版本,作为后续所有量化操作的起点 [40]。

确保您已经安装了llama.cpp的Python依赖:

bash 复制代码
pip install -r llama.cpp/requirements.txt

43

然后,执行转换命令:

bash 复制代码
python llama.cpp/convert.py Mistral-7B-Instruct-v0.2/ \
  --outfile Mistral-7B-Instruct-v0.2-F16.gguf \
  --outtype f16

41

  • Mistral-7B-Instruct-v0.2/:您刚刚下载的Hugging Face模型所在的目录。
  • --outfile:指定输出的GGUF文件名。
  • --outtype f16:指定输出精度为16位浮点数。
6.3. 应用量化

现在,我们拥有了一个约14 GB的F16.gguf文件。接下来,我们将使用先前编译的quantize工具,将其压缩成更小、更高效的版本。让我们创建一个Q4_K_M版本,这是一个在质量和尺寸上都表现出色的流行选择。

在终端中,导航到llama.cpp的根目录,并运行:

bash 复制代码
./build/bin/quantize ./Mistral-7B-Instruct-v0.2-F16.gguf ./Mistral-7B-Instruct-v0.2-Q4_K_M.gguf Q4_K_M

30

这个命令的结构非常直观:./quantize [输入文件] [输出文件] [量化方法名]。执行完毕后,您将得到一个约4.1 GB的Q4_K_M.gguf文件,可以随时投入使用了。

对于追求更高质量量化的进阶用户,llama.cpp还提供了使用"重要性矩阵"(Importance Matrix)的选项。通过在量化时提供一个基于校准数据集计算出的矩阵(使用--imatrix参数),可以在极低比特(如2位或3位)的量化中更好地保留模型的关键信息,从而提升性能 [29, 30]。

Section 7: 运行您的GGUF模型进行推理

模型准备就绪后,llama.cpp提供了多种灵活的方式来与之交互。以下是三种最主要的使用途径。

7.1. 通过命令行界面(llama-cli/main)

这是最直接、最快捷的测试和与模型互动的方式。它非常适合快速验证模型是否正常工作或进行简单的问答。

运行以下命令启动一个交互式会话:

bash 复制代码
./build/bin/main -m ./Mistral-7B-Instruct-v0.2-Q4_K_M.gguf -n 256 --color --interactive-first -p "Hello, can you tell me about the Eiffel Tower?"

1

一些关键的命令行参数解释:

  • -m <path>:指定要加载的GGUF模型文件路径。
  • -ngl <N>--n-gpu-layers <N>:将模型的N个层卸载到GPU上运行。这是提升性能最关键的参数之一。将其设置为一个较大的数字(如99)通常意味着尽可能多地使用GPU [1, 36]。
  • -c <N>--ctx-size <N>:设置模型的上下文窗口大小(以token为单位) [8, 31]。
  • -t <N>:设置用于计算的CPU线程数。通常设置为物理核心数可以获得较好性能 [31, 45]。
  • 采样参数--temp(温度)、--top-p--top-k等,用于控制生成文本的创造性和随机性 [7]。
7.2. 搭建Web服务器(llama-server)

llama-server工具可以将您的本地模型封装成一个符合OpenAI API规范的Web服务。这意味着任何支持与OpenAI API对话的应用程序或前端界面(如Open WebUI)都可以无缝地与您的本地模型对接,极大地扩展了其应用场景 [3]。

启动服务器的命令如下:

bash 复制代码
./build/bin/server -m ./Mistral-7B-Instruct-v0.2-Q4_K_M.gguf -c 4096 --host 0.0.0.0 --port 8080 -ngl 35

46

  • --host 0.0.0.0:允许网络中的其他设备访问此服务。
  • --port 8080:指定服务监听的端口。

服务器启动后,您可以使用curl等工具进行测试:

bash 复制代码
curl http://127.0.0.1:8080/v1/chat/completions \
  -H "Content-Type: application/json" \
  -d '{
    "model": "gpt-3.5-turbo",
    "messages": [
      {
        "role": "user",
        "content": "What is the capital of France?"
      }
    ]
  }'

47

7.3. 通过Python集成(llama-cpp-python)

对于希望构建复杂应用程序的开发者来说,llama-cpp-python是终极选择。它为底层的C++库提供了优雅的Python绑定,让您可以将llama.cpp的强大性能无缝集成到Python生态中 [31]。

首先,需要安装带有硬件加速支持的llama-cpp-python包。在安装时,通过环境变量CMAKE_ARGS来传递编译标志:

bash 复制代码
# 针对NVIDIA CUDA
CMAKE_ARGS="-DLLAMA_CUBLAS=ON" pip install llama-cpp-python

# 针对Apple Metal
CMAKE_ARGS="-DLLAMA_METAL=ON" pip install llama-cpp-python

28

以下是一个完整、可运行的Python脚本示例:

python 复制代码
from llama_cpp import Llama

# 加载模型,并配置GPU卸载
llm = Llama(
    model_path="./Mistral-7B-Instruct-v0.2-Q4_K_M.gguf",
    n_ctx=4096,         # 上下文窗口大小
    n_gpu_layers=35,    # 卸载35层到GPU
    n_threads=8,          # 使用的CPU线程数
    verbose=False       # 关闭冗长的输出
)

# 生成文本
output = llm(
    "Q: What is the capital of France? A: ",
    max_tokens=32,       # 最大生成token数
    stop=["Q:", "\n"],    # 遇到这些字符串时停止生成
    echo=True            # 在输出中包含提示
)

# 打印结果
print(output["choices"][0]["text"])

27

这段代码清晰地展示了如何加载模型、配置关键参数(如GPU层数和上下文大小),以及如何调用模型进行文本生成。

Section 8: 结论:llama.cpp与边缘AI的未来

通过本文的深入探讨和实践,我们已经全面了解了llama.cpp的强大之处。它不仅仅是一个工具,更是一个完整的生态系统,通过高效的C++引擎、标准化的GGUF格式以及核心的量化技术,成功地将大型语言模型推理的门槛降至前所未有的水平,使本地化AI成为每个开发者触手可及的现实。

在选择推理引擎时,理解不同工具的设计哲学至关重要。llama.cpp与vLLM等面向服务器的框架代表了两种不同的优化方向:

  • llama.cpp:为单用户、低延迟、资源受限的环境而生。它的吞吐量是恒定的,但其生成每个token的延迟(Inter-Token Latency)极低,响应速度极快。这使其成为桌面应用、本地开发工具、移动设备和嵌入式系统等边缘AI场景的理想选择 [20]。
  • vLLM:为多用户、高吞吐量、可扩展的服务器环境而设计。它能在强大的GPU上通过先进的批处理和内存管理技术,处理海量的并发请求,是构建生产级、面向多用户的AI后端的明确选择 [20]。

结论是明确的:未来是分布式的,也是本地化的。llama.cpp正是这场边缘AI革命的关键推动者。它使得强大的AI模型能够直接在用户的个人设备上运行,这不仅保障了数据隐私和自主权,也为离线应用和低延迟交互开辟了全新的可能性 [19]。随着项目的持续活跃开发和社区的不断壮大,llama.cpp无疑将继续站在本地化AI浪潮的最前沿,引领新一轮的人工智能创新 [13]。

相关推荐
文心快码BaiduComate11 小时前
百度云与光本位签署战略合作:用AI Agent 重构芯片研发流程
前端·人工智能·架构
风象南12 小时前
Claude Code这个隐藏技能,让我告别PPT焦虑
人工智能·后端
Mintopia13 小时前
OpenClaw 对软件行业产生的影响
人工智能
陈广亮13 小时前
构建具有长期记忆的 AI Agent:从设计模式到生产实践
人工智能
会写代码的柯基犬13 小时前
DeepSeek vs Kimi vs Qwen —— AI 生成俄罗斯方块代码效果横评
人工智能·llm
Mintopia14 小时前
OpenClaw 是什么?为什么节后热度如此之高?
人工智能
爱可生开源社区14 小时前
DBA 的未来?八位行业先锋的年度圆桌讨论
人工智能·dba
叁两17 小时前
用opencode打造全自动公众号写作流水线,AI 代笔太香了!
前端·人工智能·agent
前端付豪17 小时前
LangChain记忆:通过Memory记住上次的对话细节
人工智能·python·langchain