AutoModelForCausalLM.from_pretrained 函数调用本地权重报错

文章目录

1、代码报错的位置(前情提要)

在终端直接运行finetune_lora.sh文件,--model_name_or_path该参数是指定加载的模型权重,可以是huggingface上的model_name,也可以使本地保存模型权重的路径。

使用默认的模型参数配置是(meta-llama/Llama-2-7b-chat-hf),该情况下模型权重会直接去huggingface官网上去下载。

finetune_lora.sh

fintune_clm_lora.py

--model_name_or_path 参数会在这里作为 AutoModelForCausalLM.from_pretrained 函数的参数

2、报错截图

服务器无法直接访问huggingface网站,因此只能采用指定本地模型路径的方法。(需要先申请并下载模型权重)

2.1、huggingfaces上的 meta-llama/Llama-2-7b-chat-hf

这个是需要去meta website申请之后,再在huggingface的meta_llama项目下再提交一次信息才可以查看和下载这些信息

权重文件有【.safetensor】 【.bin】两种,默认是加载.safetensor权重文件

2.2、服务器上模型文件路径

两种权重其实都可以使用,大小都一致,要想只使用.bin权重文件,需要删除.safetensor文件和对应的.safetensor.index.json文件才可以。

3、特别注意事项

若只想使用.bin权重文件,但是.bin.index.json文件有残留,运行就会报错找不到.safetensor权重文件。

可以侧面看出AutoModelForCausalLM.from_pretrained 函数是根据json文件进行读取对应的权重文件(同门李伟发现!)

相关推荐
李辉20036 小时前
Python简介及Pycharm
开发语言·python·pycharm
大模型教程8 小时前
dify和Langchain-Chatchat有什么区别?
程序员·langchain·llm
AI大模型9 小时前
什么是Embedding?Embedding的三大分类从“词袋”到“上下文”
程序员·llm·agent
大模型教程9 小时前
记一次大模型检索增强系统中的一个问题——死板的RAG
程序员·llm·agent
AI大模型10 小时前
想在 AI 领域弯道超车?这份 7 大 RAG 核心框架清单,你必须收藏!
程序员·llm·agent
Clain13 小时前
Ollama、LM Studio只是模型工具,这款工具比他俩更全面
人工智能·机器学习·llm
Qiuner15 小时前
大模型请求/响应参数完全拆解:每个字段都是什么意思?
阿里云·大模型·llm·请求·apifox
nenchoumi311915 小时前
LLM 论文精读(十二)DeepSeek-OCR: Contexts Optical Compression
人工智能·计算机视觉·llm·ocr·vlm·deepseek
_Johnny_16 小时前
PyCharm 快速运行 django project
ide·pycharm·django
CoderLiu1 天前
LLM API 成本的 3 个秘密:如何让服务商为你的复杂推理买单
人工智能·llm