初始化大模型的不同方式

  • llama.cpp =「发动机」------ 纯推理库,命令行或 C/C++ API 调用,什么都要自己拼。

  • Ollama =「整车」------ 把 llama.cpp 发动机包成 Docker 式服务,一键拉模型、自动启停、REST/OpenAI 兼容,零配置就能用。

| 维度 | llama.cpp | Ollama |
|-------|-------------------------------------|-------------------------------------------------------------------------------------------------------------|------|
| 定位 | 底层推理引擎 | 上层模型运行工具 |
| 安装 | 需自编译或下 release 二进制 | 一条 `curl -fsSL https://ollama.ai/install.sh | sh` |
| 模型获取 | 手工下载/转换 GGUF | ollama pull qwen2.5:7b 自动完成 |
| 启动方式 | ./main./server 手动指定参数 | ollama run qwen2.5:7b 直接对话 |
| 接口 | 命令行、C/C++ API、可启 HTTP 但需自己写 systemd | 默认 11434 端口,OpenAI 格式即开即用 |
| 配置 | 全程命令行参数,无持久化 | 自动写 systemd 服务,Modelfile 管理参数 |
| 多模型并行 | 自己开多个端口/进程 | ollama run llama3 另开实例即可 |
| 跨平台 | 全平台,需自己管 GPU 驱动 | 同样全平台,GPU 依赖自动检测 |
| 适用人群 | 需要深度定制、嵌入式、最小体积 | 想 5 分钟搭好本地 LLM 服务 |

相关推荐
勇往直前plus11 小时前
大模型开发手记(八):LangChain Agent格式化输出
langchain
qq_54702617912 小时前
LangChain 会话记忆(Conversation Memory)
langchain
Vital13 小时前
AI Agent(写一个简易的MCP天气查询工具)
langchain·ai编程·cursor
逸尘谈PM15 小时前
智能体框架对比:OpenClaw、LangChain、AutoGPT、CrewAI 深度对比
人工智能·ai·langchain·职场·2026年
前进的李工17 小时前
LangChain使用之Model IO(提示词模版之ChatPromptTemplate)
java·前端·人工智能·python·langchain·大模型
张张123y19 小时前
知识图谱从0到1:AI应用开发的核心技术
人工智能·langchain·transformer·知识图谱
勇往直前plus21 小时前
大模型开发手记(九):LangChain Agent 中间件-提升Agent的可靠性与可控性
中间件·langchain
java1234_小锋1 天前
基于LangChain的RAG与Agent智能体开发 - 使用LangChain调用大模型设置流式输出
langchain·rag
诗酒当趁年华1 天前
langchain核心组件5-短期记忆
langchain
啊巴矲1 天前
白从零开始勇闯人工智能:LangChain中的检索增强生成(RAG)
langchain