通过LlaMA-Factory导出的模型部署到Ollama

LlaMA-Factory导出的模型转换格式

仓库地址:https://github.com/ggerganov/llama.cpp

git clone仓库之后,下载相关依赖:

markup 复制代码
cd /opt/gl/llama.cpp-master/llama.cpp-master
pip install -r requirements.txt

转换大模型格式

转换为gguf格式

markup 复制代码
 python convert_hf_to_gguf.py /opt/gl/model/lin_model --outfile /opt/gl/model/lin_model.gguf --outtype q8_0

创建ModelFile文件

markup 复制代码
FROM D:\ollama\models\lin_model\lin_model.gguf

添加自定义模型

markup 复制代码
ollama create lin_model -f D:\ollama\models\lin_model\ModelFile

查看本地模型

运行本地大模型

markup 复制代码
ollama run lin_model:latest
相关推荐
yanzhilv1 天前
Ollama + Open WebUI
llama
喜欢吃豆2 天前
掌握本地化大语言模型部署:llama.cpp 工作流与 GGUF 转换内核全面技术指南
人工智能·语言模型·架构·大模型·llama·llama.cpp·gguf
illuspas4 天前
Ubuntu 24.04下编译支持ROCm加速的llama.cpp
linux·ubuntu·llama
缘友一世7 天前
LLama3架构原理浅浅学学
人工智能·自然语言处理·nlp·transformer·llama
我们没有完整的家8 天前
批量吞吐量实测:Llama-2-7b 昇腾 NPU 六大场景数据报告
llama
asfdsfgas8 天前
从加载到推理:Llama-2-7b 昇腾 NPU 全流程性能基准
人工智能·llama
asdfsdgss8 天前
FP16 vs INT8:Llama-2-7b 昇腾 NPU 精度性能基准报告
llama
猿代码_xiao8 天前
大模型微调完整步骤( LLama-Factory)
人工智能·深度学习·自然语言处理·chatgpt·llama·集成学习
wei_shuo10 天前
Llama-2-7b 昇腾 NPU 测评总结:核心性能数据、场景适配建议与硬件选型参考
大模型·llama·昇腾
凯子坚持 c10 天前
Llama-2-7b在昇腾NPU上的六大核心场景性能基准报告
java·开发语言·llama