通过LlaMA-Factory导出的模型部署到Ollama

LlaMA-Factory导出的模型转换格式

仓库地址:https://github.com/ggerganov/llama.cpp

git clone仓库之后,下载相关依赖:

markup 复制代码
cd /opt/gl/llama.cpp-master/llama.cpp-master
pip install -r requirements.txt

转换大模型格式

转换为gguf格式

markup 复制代码
 python convert_hf_to_gguf.py /opt/gl/model/lin_model --outfile /opt/gl/model/lin_model.gguf --outtype q8_0

创建ModelFile文件

markup 复制代码
FROM D:\ollama\models\lin_model\lin_model.gguf

添加自定义模型

markup 复制代码
ollama create lin_model -f D:\ollama\models\lin_model\ModelFile

查看本地模型

运行本地大模型

markup 复制代码
ollama run lin_model:latest
相关推荐
❀͜͡傀儡师3 小时前
ShadowBroker:实时全球情报地图,开源情报(OSINT)的终极聚合平台
docker·容器·llama
❀͜͡傀儡师13 小时前
基于Docker的LLaMA-Factory全流程部署指南
docker·容器·llama
d1z88813 小时前
(二十)32天GPU测试从入门到精通-llama.cpp CPU/GPU 混合推理day18
人工智能·llama·显卡·llama.cpp
AI自动化工坊2 天前
Google LiteRT-LM生产级部署指南:如何在边缘设备实现高效LLM推理?
人工智能·ai·llama
gergul2 天前
在llama-cpp-python中使用自己编译的llama.cpp,解决pip install llama-cpp-python报错
python·llama·llama.cpp·llamacpppython
黑牛儿2 天前
零成本!Ollama本地部署国产大模型全指南(支持Kimi-K2.5/GLM-5/Qwen,新手秒上手)
ai·llama
奇思智算3 天前
LLaMA/Bert/扩散模型微调GPU选型及租用指南
人工智能·bert·llama
xingyuzhisuan3 天前
LoRA微调实战:8卡4090服务器如何高效微调LLaMA?
运维·服务器·llama·gpu算力
yumgpkpm4 天前
华为昇腾910B上用Kubernetes(K8s)部署LLM和用Docker部署LLM的区别
docker·chatgpt·容器·stable diffusion·kubernetes·llama·gpu算力
yumgpkpm4 天前
华为昇腾910B上用Kubernetes(K8s)部署LLM(Qwen3-32B)的详细步骤,保姆级命令及方法、下载链接等
运维·服务器·华为·stable diffusion·aigc·copilot·llama