Windows10本地部署Dify+Xinference

目录

前言

一、安装必要项

1.安装Docker和AnaConda

2.安装Xinference

3.通过Xinference部署本地glm4-chat-1m

4.验证glm4-chat-1m是否部署完成

5.安装Dify

三、Dify中配置大模型

1.浏览器输入http://localhost:80启动Dify页面

2.随便注册账户登录

3.配置Xinference

四、运行Dify

1.设置系统推理模型

2.对话窗口验证

总结


前言

本文档在基于Windows10的本地电脑上部署使用Dify,其中必要用到的Xinference大模型管理框架,使用的大模型为GLM4-Chat-1m。

前置条件:确保已安装Anaconda、Python、Cuda。

一、安装必要项

1.安装Docker和AnaConda

Docker: Accelerated Container Application Developmenthttps://www.docker.com/

下载 Anaconda Distribution |蟒蛇https://www.anaconda.com/download

2.安装Xinference

打开Anaconda命令行页面

输入命令:

  • conda create --name xinference python==3.12
  • conda activate xinference
  • pip install xinference[transformers]
  • pip install xinference[vllm],有问题,只装transformers也行
  • xinference-local --host 本机IPV4地址 --prot 9997(ps:查询本机IP:[cmd]输入ipconfig)

浏览器输入本机IP:9997后如下图:

3.通过Xinference部署本地glm4-chat-1m

4.验证glm4-chat-1m是否部署完成

5.安装Dify

官网下载源码https://github.com/langgenius/dify,例如下载到D:\dify

打开cmd,执行以下代码

  • cd D:\dify\docker
  • docker compose up -d

Docker中查看是否部署成功,启动即可

三、Dify中配置大模型

1.浏览器输入http://localhost:80启动Dify页面

2.随便注册账户登录

3.配置Xinference

前置条件:Xinference正常运行中

点击右上角头像---设置---模型供应商---XorbitsInference---添加模型

  • 模型类型选择LLM
  • 模型名称随便填,自己看的
  • 服务器URL填写Xinference的IPV4地址+端口:http://192.168.0.167:9997
  • 模型UID填写Xinference中的模型ID:glm4-chat-1m
  • 选择保存

四、运行Dify

1.设置系统推理模型

2.对话窗口验证


总结

以上就是在Windows 10环境下部署本地的Dify和Xinference,因为笔者是玩Unity出身,当前只是业余时间研究,有问题欢迎指正和探讨~

相关推荐
躺柒4 小时前
读大语言模型08计算基础设施
人工智能·ai·语言模型·自然语言处理·大语言模型·大语言
Elastic 中国社区官方博客7 小时前
将 agents 连接到 Elasticsearch 使用模型上下文协议 - docker
大数据·数据库·人工智能·elasticsearch·搜索引擎·docker·ai
CoderJia程序员甲8 小时前
GitHub 热榜项目 - 日榜(2025-08-28)
ai·github·开源项目·github热榜
即兴小索奇8 小时前
AI智能物流仓储新变革:从自动分拣到动态路径规划,破解仓储运营效率难题
人工智能·ai·商业·ai商业洞察·即兴小索奇
九仞山1 天前
LangChain4j入门一:LangChain4j简介及核心概念
java·ai·langchain·agents
猫头虎1 天前
什么是AI+?什么是人工智能+?
人工智能·ai·prompt·aigc·数据集·ai编程·mcp
武子康1 天前
AI-调查研究-59-机器人 行业职业地图:发展路径、技能要求与薪资全解读
人工智能·gpt·程序人生·ai·职场和发展·机器人·个人开发
TDengine (老段)1 天前
TDengine IDMP 5 个实测场景让监控变简单
大数据·数据库·物联网·ai·时序数据库·tdengine·涛思数据
MicrosoftReactor2 天前
技术速递|Model Context Protocol (MCP) 支持已上线 JetBrains、Eclipse 和 Xcode
ai·eclipse·copilot·xcode·mcp
赵康2 天前
使用 LLM + MCP 在过早客论坛冲浪🏄‍♀️
ai·llm·mcp