llama gguf大模型文件合并

llama-gguf-split.exe下载

https://github.com/ggerganov/llama.cpp/releases

下载vulkan win64版本,解压后,把目录添加到环境变量

进入大模型文件目录,运行命令行:

llama-gguf-split.exe --merge qwen2.5-coder-7b-instruct-q4_k_m-00001-of-00002.gguf qwen2.5-coder-7b-instruct-q4_k_m.gguf

相关推荐
开发者导航2 天前
【开发者导航】轻量可微调且开源的大语言模型家族:LLaMA
语言模型·开源·llama
缘友一世3 天前
借助LLama_Factory工具对大模型进行lora微调
llama
illuspas4 天前
MI50运算卡使用llama.cpp的ROCm后端运行Qwen3-Coder-30B-A3B的速度测试
人工智能·llama
herogus丶4 天前
【LLM】LLaMA-Factory 训练模型入门指南
python·ai编程·llama
illuspas4 天前
MI50运算卡使用llama.cpp的ROCm后端运行gpt-oss-20b的速度测试
人工智能·gpt·llama
谏书稀4 天前
LLaMA Factory微调大模型
python·transformer·llama
菠菠萝宝5 天前
【AI应用探索】-7- LLaMA-Factory微调模型
人工智能·深度学习·大模型·llm·nlp·attention·llama
wuningw6 天前
Windows环境下LLaMA-Factory微调模型时“未检测到CUDA环境”
llama
喜欢吃豆8 天前
llama.cpp 全方位技术指南:从底层原理到实战部署
人工智能·语言模型·大模型·llama·量化·llama.cpp
skywalk81638 天前
在星河社区部署大模型unsloth/Llama-3.3-70B-Instruct-GGUF
llama·aistudio