windows下xinference无法加载本地大模型问题解决

一、打开C盘权限

1 打开【开始】菜单

2 找到windows工具,打开

3 找到命令行

4 右键

5 以管理员身份运行

6 输入:icacls frpc_windows_amd64_v0.2 /grant Users:(RX)

7 等待几分钟

二、创建软链接

以管理员身份在命令行运行下面命令

mklink /d E:\\XinferenceFiles\\cache\\custom-glm4-chat-pytorch-9b E:\\glm_4_9b_chat

启动成功:

C:\Windows\System32>mklink /d E:\\XinferenceFiles\\cache\\custom-glm4-chat-pytorch-9b E:\\glm_4_9b_chat

为 E:\\XinferenceFiles\\cache\\custom-glm4-chat-pytorch-9b <<===>> E:\\glm_4_9b_chat 创建的三、命令方式启动模型

1 在E:\glm_4_9b_chat下创建一个custom-glm4-chat.json配置文件

内容为:

{

"version": 1,

"context_length": 131072,

"model_name": "custom-glm4-chat",

"model_lang": [

"en",

"zh"

],

"model_ability": [

"chat",

"tools"

],

"model_family": "glm4-chat",

"model_specs": [

{

"model_format": "pytorch",

"model_size_in_billions": 9,

"quantizations": [

"4-bit",

"8-bit",

"none"

],

"model_id": "THUDM/glm-4-9b-chat",

"model_uri": "E:\\glm_4_9b_chat"

}

]

}

2 启动xinference,执行下面命令

xinference-local --host 127.0.0.0 --port 9997

3 打开inference的命令行,切换到大模型路径下E:\glm_4_9b_chat

4 注册模型

xinference register --model-type LLM --file custom-glm4-chat.json --persist

5 开启模型

xinference launch --model-name custom-glm4-chat --model-format pytorch --model-engine Transformers

参考链接:

【Gradio-Windows-Linux】解决share=True无法创建共享链接,缺少frpc_windows_amd64_v0.2_gradio share=true-CSDN博客

无错误!xinference部署本地模型glm4-9b-chat、bge-large-zh-v1.5_xinference加载本地模型-CSDN博客

使用xinference下载大模型之后存储的位置

:"E:\XinferenceFiles\modelscope\hub\ZhipuAI\glm-4-9b-chat\modeling_chatglm.py"

相关推荐
工藤学编程1 小时前
零基础学AI大模型之LangChain-PromptTemplate
人工智能·langchain
脚踏实地的大梦想家4 小时前
【LangChain】P2 LangChain宏观架构深度解析:构建企业级大模型应用的首选框架
架构·langchain
工藤学编程1 天前
零基础学AI大模型之LangChain六大核心模块与大模型IO交互链路
人工智能·langchain·交互
lihuayong1 天前
从“链”到“图”:LangGraph如何终结LangChain的线性智能体
人工智能·langchain·langgraph
大模型铲屎官1 天前
【LangChain 核心组件指南 | Agent篇】从零到精通:深度解析 create_agent 与 ReAct 智能体构建
人工智能·python·深度学习·langchain·大模型·agent·react智能体
玲小珑1 天前
LangChain.js 完全开发手册(十二)高性能 AI 应用优化技术
前端·langchain·ai编程
ObjectX前端实验室2 天前
LLM的生态与能力边界&一个基本对话的实现
前端·langchain·llm
这是谁的博客?2 天前
LangChain第三页【操作指南】_【如何缓存对话模型响应】翻译完成
缓存·langchain
kyle-fang2 天前
langchain-基于agent架构的开发
langchain
大模型教程3 天前
LangGraph实战教程(1)- 从零开始认识LangGraph
langchain·llm·agent