llama.cpp运行qwen0.5B

编译llama.cp

参考

下载模型

05b模型下载

转化模型

创建虚拟环境

bash 复制代码
conda create --prefix=D:\miniconda3\envs\llamacpp python=3.10
conda activate D:\miniconda3\envs\llamacpp

安装所需要的包

bash 复制代码
cd G:\Cpp\llama.cpp-master
pip install -r requirements.txt
python convert.py -h



执行转换命令

bash 复制代码
python convert.py G:\Python\Qwen1.5-0.5B-Chat --outfile G:\Cpp\qwenchat0.5b.gguf --outtype q8_0
python convert-hf-to-gguf.py G:\Python\Qwen1.5-0.5B-Chat  --outfile G:\Cpp\qwenchat0.5b.gguf
# 解释
# python 
# convert.py # convert.py路径
# /content/finetuned-2_merged # 模型路径
# --outfile finetuned-2.gguf # 要分配的gguf模型名称
# --outtype q8_0 #以8 Bit量化



将模型量化为5Bit(使用q5_k-m方法)

bash 复制代码
quantize.exe G:\Cpp\qwenchat0.5b.gguf qwenchat0.5b-q5_k_m.gguf q5_k_m


运行

bash 复制代码
# 注意Qwen模型要使用chatml prompt 模版
main.exe -m qwenchat0.5b-q5_k_m.gguf -n 512 --chatml

尝鲜通义千问1.8B
参考
hf2gguf

相关推荐
Jerry Lau10 小时前
大模型-本地化部署调用--基于ollama+openWebUI+springBoot
java·spring boot·后端·llama
斯多葛的信徒12 小时前
看看你的电脑可以跑 AI 模型吗?
人工智能·语言模型·电脑·llama
AGI学习社12 小时前
2024中国排名前十AI大模型进展、应用案例与发展趋势
linux·服务器·人工智能·华为·llama
__如果20 小时前
论文阅读--Qwen2&2.5技术报告
论文阅读·qwen
周杰伦_Jay1 天前
Ollama能本地部署Llama 3等大模型的原因解析(ollama核心架构、技术特性、实际应用)
数据结构·人工智能·深度学习·架构·transformer·llama
Yongqiang Cheng2 天前
llama.cpp LLM_ARCH_NAMES
llama.cpp·arch_names
Allen200003 天前
wow-agent---task2使用llama-index创建Agent
人工智能·llama
不是吧这都有重名3 天前
[Datawheel学习]用Llama-index创建Agent、数据库对话Agent和RAG接入Agent
数据库·学习·llama
RockWang.3 天前
【llama_factory】qwen2_vl训练与批量推理
llama·qwen2-vl
beyond阿亮6 天前
llama.cpp编译和运行 API调用
c++·人工智能·ai·llama