2026.1月llama.cpp的最新进展:在AIStudio推理Llama-3-8B-Instruct-Coder.Q6_K.gguf模型

先上结论,在AIStudio上cpu推理非常慢,怎么说呢,速度回到了一年前,真不适应这么慢。所以没法在AIStudio上用。

官网:ggml-org/llama.cpp: LLM inference in C/C++

下载llama.cpp源代码

复制代码
git clone https://gitcode.com/GitHub_Trending/ll/llama.cpp

编译llama.cpp

复制代码
cd llama.cpp


cmake -B build
cmake --build build --config Release

加入路径

复制代码
export PATH=/home/aistudio/llama.cpp/build/bin:$PATH

看看版本

llama-cli --version

version: 7815 (091a46cb8)

built with GNU 9.4.0 for Linux x86_64

aistudio@jupyter-141218-5919289:~/llama.cpp$

在魔搭选模型:

Qwen3-Coder-30B-A3B-Instruct-GGUF · 模型库

刚开始选了这个,但是下载太慢了,而且占用空间太大(忘记只下载一个了),导致空间超出而报错。

后来选了这个:Llama-3-8B,并且只下一个模型文件。

下载模型Llama-3-8B

复制代码
pip install modelscope
modelscope download --model QuantFactory/Llama-3-8B-Instruct-Coder-GGUF Llama-3-8B-Instruct-Coder.Q6_K.gguf --local_dir ./work

启动聊天

复制代码
llama-cli -m model.gguf
llama-cli -m ~/work/Llama-3-8B-Instruct-Coder.Q6_K.gguf

但是速度非常慢。

复制代码
> 你好

你好!😊

[ Prompt: 0.4 t/s | Generation: 0.1 t/s ]

> /exit

后面准备换LFM2.5-1.2B模型

启动服务

llama-server

一款轻量级、兼容 OpenAI API 的 HTTP 服务器,用于部署大型语言模型(LLMs)。
  • 使用默认配置在 8080 端口启动本地 HTTP 服务器

    复制代码
    llama-server -m model.gguf --port 8080# 可通过浏览器访问基础 Web UI:http://localhost:8080
    # 聊天补全接口:http://localhost:8080/v1/chat/completions
  • 支持多用户和并行解码

  • 启用推测解码

  • 部署嵌入模型

  • 部署重排序模型

  • 使用语法约束所有输出

llama-perplexity

用于测量模型在给定文本上的困惑度 [1](及其他质量指标)的工具。
  • 测量文本文件的困惑度

    复制代码
    llama-perplexity -m model.gguf -f file.txt
    
    # [1]15.2701,[2]5.4007,[3]5.3073,[4]6.2965,[5]5.8940,[6]5.6096,[7]5.7942,[8]4.9297, ...
    # 最终估计:PPL = 5.4007 +/- 0.67339
  • 测量 KL 散度

llama-bench

llama-simple
使用 llama.cpp 实现应用程序的极简示例。对开发者很有用。
  • 基本文本补全

    复制代码
    llama-simple -m model.gguf
    
    # 你好,我叫凯特琳,是一个16岁的女孩。我是一名高中生,目前正在上一门叫做"艺术
相关推荐
d1z8881 小时前
(二十一)32天GPU测试从入门到精通-LLaMA 系列模型测试day19
llama·显卡·llm推理·推理引擎
AI精钢1 小时前
OpenClaw 本地内存检索与 node-llama-cpp 的依赖关系深度解析
llama·向量数据库·内存检索·openclaw·node-llama-cpp·本地 ai
❀͜͡傀儡师5 小时前
ShadowBroker:实时全球情报地图,开源情报(OSINT)的终极聚合平台
docker·容器·llama
❀͜͡傀儡师15 小时前
基于Docker的LLaMA-Factory全流程部署指南
docker·容器·llama
d1z88815 小时前
(二十)32天GPU测试从入门到精通-llama.cpp CPU/GPU 混合推理day18
人工智能·llama·显卡·llama.cpp
AI自动化工坊2 天前
Google LiteRT-LM生产级部署指南:如何在边缘设备实现高效LLM推理?
人工智能·ai·llama
gergul3 天前
在llama-cpp-python中使用自己编译的llama.cpp,解决pip install llama-cpp-python报错
python·llama·llama.cpp·llamacpppython
黑牛儿3 天前
零成本!Ollama本地部署国产大模型全指南(支持Kimi-K2.5/GLM-5/Qwen,新手秒上手)
ai·llama
奇思智算3 天前
LLaMA/Bert/扩散模型微调GPU选型及租用指南
人工智能·bert·llama
xingyuzhisuan3 天前
LoRA微调实战:8卡4090服务器如何高效微调LLaMA?
运维·服务器·llama·gpu算力