AutoModelForCausalLM.from_pretrained 函数调用本地权重报错

文章目录

1、代码报错的位置(前情提要)

在终端直接运行finetune_lora.sh文件,--model_name_or_path该参数是指定加载的模型权重,可以是huggingface上的model_name,也可以使本地保存模型权重的路径。

使用默认的模型参数配置是(meta-llama/Llama-2-7b-chat-hf),该情况下模型权重会直接去huggingface官网上去下载。

finetune_lora.sh

fintune_clm_lora.py

--model_name_or_path 参数会在这里作为 AutoModelForCausalLM.from_pretrained 函数的参数

2、报错截图

服务器无法直接访问huggingface网站,因此只能采用指定本地模型路径的方法。(需要先申请并下载模型权重)

2.1、huggingfaces上的 meta-llama/Llama-2-7b-chat-hf

这个是需要去meta website申请之后,再在huggingface的meta_llama项目下再提交一次信息才可以查看和下载这些信息

权重文件有【.safetensor】 【.bin】两种,默认是加载.safetensor权重文件

2.2、服务器上模型文件路径

两种权重其实都可以使用,大小都一致,要想只使用.bin权重文件,需要删除.safetensor文件和对应的.safetensor.index.json文件才可以。

3、特别注意事项

若只想使用.bin权重文件,但是.bin.index.json文件有残留,运行就会报错找不到.safetensor权重文件。

可以侧面看出AutoModelForCausalLM.from_pretrained 函数是根据json文件进行读取对应的权重文件(同门李伟发现!)

相关推荐
Fleshy数模2 小时前
玩转 LangChain:从 Prompt 模板到多场景 AI 交互实战
人工智能·langchain·llm
王_teacher2 小时前
LSTM 原理详解手动编写LSTM模型代码
人工智能·llm·nlp·lstm
挫折常伴左右3 小时前
IDEA和PYCHARM激活冲突解决
java·pycharm·intellij-idea
还是转转4 小时前
深入认识 Agent —— 智能体开发框架
人工智能·llm·agent
玖日大大4 小时前
2026十大LLM研究突破:扩散语言模型挑战自回归、Unicode隐形注入、AI操纵性评估 — 大模型从狂飙走向可控
人工智能·语言模型·回归·llm·论文解读·ai agent·ai安全
XLYcmy4 小时前
GameGPT 初赛方案设计 训练入口+主入口
windows·python·ai·llm·prompt·agent·游戏安全
Abbylolo4 小时前
PyCharm 中接入 Cursor AI:通过 ACP 实现无缝协作
ide·python·pycharm
qcx2316 小时前
阿里 RynnVLA-002 源码深度拆解:一个 7B 模型如何同时当机器人大脑和世界模拟器
ai·机器人·llm·agent·具身智能·vla
黑贝是条狗21 小时前
llama编译封装了一个最小翻译模型400M
llama
字节跳动开源1 天前
局中局!给 Agent 装上 OpenViking,它们竟然学会了“记仇”和“伪装”?
人工智能·开源·llm