关于llama2:从原始llama-2-7b到llama-2-7b-hf的权重转换教程

1.首先,我是从各个教程里面选了一个实际操作的教程(这样更加靠谱):下载llama2-7b并转hf模型_huggingface 下载llama2-7b-chat-hf-CSDN博客

2.但是,其实我在另外一篇更好的教程里面看到过一个坑(这篇好像是腾讯云的一篇文章但是找不到了呜呜呜~~~),这个没有列出来,不过我自己也试出来了,:

直接按照这个教程是可以的,但是需要注意,tokenizer.model文件需要在llama-2-7b这个目录里面有,所以我是复制过去了。

最终得到了我想要的hf版本的权重!

相关推荐
d1z8882 天前
(二十一)32天GPU测试从入门到精通-LLaMA 系列模型测试day19
llama·显卡·llm推理·推理引擎
AI精钢2 天前
OpenClaw 本地内存检索与 node-llama-cpp 的依赖关系深度解析
llama·向量数据库·内存检索·openclaw·node-llama-cpp·本地 ai
❀͜͡傀儡师2 天前
ShadowBroker:实时全球情报地图,开源情报(OSINT)的终极聚合平台
docker·容器·llama
❀͜͡傀儡师2 天前
基于Docker的LLaMA-Factory全流程部署指南
docker·容器·llama
d1z8882 天前
(二十)32天GPU测试从入门到精通-llama.cpp CPU/GPU 混合推理day18
人工智能·llama·显卡·llama.cpp
AI自动化工坊4 天前
Google LiteRT-LM生产级部署指南:如何在边缘设备实现高效LLM推理?
人工智能·ai·llama
gergul4 天前
在llama-cpp-python中使用自己编译的llama.cpp,解决pip install llama-cpp-python报错
python·llama·llama.cpp·llamacpppython
黑牛儿4 天前
零成本!Ollama本地部署国产大模型全指南(支持Kimi-K2.5/GLM-5/Qwen,新手秒上手)
ai·llama
奇思智算5 天前
LLaMA/Bert/扩散模型微调GPU选型及租用指南
人工智能·bert·llama
xingyuzhisuan5 天前
LoRA微调实战:8卡4090服务器如何高效微调LLaMA?
运维·服务器·llama·gpu算力