使用llama.cpp在gpu和cpu上运行deepseek-r1 7b的性能对比

使用deepseek-r1 7b模型的q5km量化版本进行测试, gpu上的token解码速度是cpu的近8倍.

测试环境: ubuntu22.04 x86+llama.cpp

cpu intel 10750h4.41 tokens / s

|------------------------|----------|--------|---------|---------|-------|--------------|
| model | size | params | backend | threads | test | t/s |
| qwen2 7B Q5_K - Medium | 5.07 GiB | 7.62 B | CPU | 6 | pp512 | 15.70 ± 0.40 |
| qwen2 7B Q5_K - Medium | 5.07 GiB | 7.62 B | CPU | 6 | tg128 | 4.41 ± 0.03 |

使用-t 12扩展到12线程,速度也没有明显变化.

gpu nvidia 1660, 生成速度36 tokens / s.

|------------------------|----------|--------|---------|-----|-------|---------------|
| model | size | params | backend | ngl | test | t/s |
| qwen2 7B Q5_K - Medium | 5.07 GiB | 7.62 B | CUDA | 30 | pp512 | 164.55 ± 0.03 |
| qwen2 7B Q5_K - Medium | 5.07 GiB | 7.62 B | CUDA | 30 | tg128 | 36.38 ± 0.02 |

相关推荐
qq_2715817940 分钟前
Ubuntu OpenCV C++ 获取Astra Pro摄像头图像
人工智能·opencv·计算机视觉
电鱼智能的电小鱼1 小时前
基于电鱼 ARM 工控机的井下AI故障诊断方案——让煤矿远程监控更智能、更精准
网络·arm开发·人工智能·算法·边缘计算
拉姆哥的小屋1 小时前
时间序列早期分类中的置信度累积问题:从ECE-C到时序依赖建模
大数据·人工智能
蚁巡信息巡查系统2 小时前
政府网站与政务新媒体监测服务主要是做什么的?
大数据·人工智能
林恒smileZAZ2 小时前
移动端h5适配方案
人工智能·python·tensorflow
伟贤AI之路2 小时前
开源!纯 HTML 实现支持 0.75~2× 变速、iOS 熄屏防中断的英语点读站
人工智能·ai编程
编码时空的诗意行者2 小时前
LM实现教程:基于 nanochat项目 从零开始理解大语言模型
人工智能·语言模型·自然语言处理
兔兔爱学习兔兔爱学习2 小时前
ASR+MT+LLM+TTS 一体化实时翻译字幕系统
人工智能·自然语言处理·机器翻译
二向箔reverse2 小时前
用langchain搭建简单agent
人工智能·python·langchain