【大模型系列】llama.cpp本地运行大模型

上一篇链接: 【大模型系列】使用ollama本地运行千问2.5模型 我们讲了ollama本地运行大模型,这里我们介绍另一种本地运行大模型的方法:llamacpp

软件下载

下载地址:https://github.com/ggml-org/llama.cpp/releases

下载cpu版本的llamacpp;建议下载3982版本的,新版本我试了在win上运行不了

下载后是一个压缩包,解压后配置Path

配置path

把解压后的路径加入到path中

校验

任意新开命令行,输入指令:

cpp 复制代码
llama-cli -v

出现以下内容表示安装成功

启动

到模型所在目录,执行以下命令即可;下载模型可见我另一篇:链接: 【大模型系列】入门常识备忘 ,这里我们下载的gguf格式的模型

cpp 复制代码
llama-server -m qwen2.5-7b-instruct-q5_0.gguf --port 8088 -c 2048

port 是服务的端口

c 是context的意思,即最大能处理多少个token

启动后就可以通过浏览器 http://localhost:8088 访问服务了

调试开始

over~~

相关推荐
一步一念3 分钟前
Langchaine4j 流式输出 (6)
spring boot·ai·langchain4j
AI大模型系统化学习3 小时前
AI产品风向标:从「工具属性」到「认知引擎」的架构跃迁
大数据·人工智能·ai·架构·大模型·ai大模型·大模型学习
哥不是小萝莉8 小时前
如何实现RAG与MCP集成
ai·rag
武子康13 小时前
AI炼丹日志-25 - OpenAI 开源的编码助手 Codex 上手指南
人工智能·gpt·ai·语言模型·自然语言处理·开源
WebCandy15 小时前
DeepSeek-R1-0528,官方的端午节特别献礼
ai·aigc·deepseek·深度思考
陶然同学15 小时前
基于千帆大模型的AI体检报告解读系统实战:使用OSS与PDFBox实现PDF内容识别
java·ai·大模型·ai体检报告解读
smart19981 天前
制造企业搭建AI智能生产线怎么部署?
ai·制造·存储
不穿铠甲的穿山甲1 天前
大模型-modelscope下载和使用chatglm3-6b模型
ai·大模型
soldierluo2 天前
WindowServer2022下docker方式安装dify步骤
ai
哥不是小萝莉2 天前
如何实现本地大模型与MCP集成
ai·mcp