关于llama2:从原始llama-2-7b到llama-2-7b-hf的权重转换教程

1.首先,我是从各个教程里面选了一个实际操作的教程(这样更加靠谱):下载llama2-7b并转hf模型_huggingface 下载llama2-7b-chat-hf-CSDN博客

2.但是,其实我在另外一篇更好的教程里面看到过一个坑(这篇好像是腾讯云的一篇文章但是找不到了呜呜呜~~~),这个没有列出来,不过我自己也试出来了,:

直接按照这个教程是可以的,但是需要注意,tokenizer.model文件需要在llama-2-7b这个目录里面有,所以我是复制过去了。

最终得到了我想要的hf版本的权重!

相关推荐
迈火13 小时前
ComfyUI - ELLA:解锁ComfyUI图像生成新境界的神奇插件
人工智能·gpt·stable diffusion·aigc·音视频·midjourney·llama
Coder个人博客2 天前
Llama.cpp GGML 模块深度分析
人工智能·自动驾驶·llama
牛奶咖啡.8542 天前
基于Llama-Factory/Qwen2.5-1.5b自定义数据集LoRA微调实战【PPO/RLHF/训练/评估】
语言模型·llm·llama·rl·ppo
白云千载尽3 天前
LLaMA-Factory 入门(二): 深入技术解析
人工智能·llama
Coder个人博客3 天前
Llama.cpp 整体架构分析
人工智能·自动驾驶·llama
Coder个人博客4 天前
Llama.cpp Tools 实用工具深度分析
人工智能·自动驾驶·llama
Coder个人博客4 天前
Llama.cpp Examples 示例程序深度分析
人工智能·自动驾驶·llama
白云千载尽4 天前
LLaMA-Factory 入门(一):Ubuntu20 下大模型微调与部署
人工智能·算法·大模型·微调·llama
Elaine3364 天前
基于 Qwen2.5 与 LLaMA-Factory 的 LoRA 微调实战
人工智能·lora·微调·llama·llama-factory
小杨互联网5 天前
PyTorch分布式训练实战:从零构建Llama模型多GPU训练系统
人工智能·pytorch·llama