本地部署Dify 添加Ollama模型DeepSeek

1、准备工作

本地ollama 加载DeepSeek。

安装并登录Dify。

2、添加Ollama模型服务商

在设置-》模型服务上里添加Ollama模型服务商,也叫插件。

3、添加DeepSeek

使用终端命令 ollama list查询deepseek名称,如deepseek-r1:14b。

在Ollama插件冲添加LLM模型,

名称:deepseek-r1:14b

基础 URL:http://host.docker.internal:11434

其他参数随意

4、保存

相关推荐
unique_perfect5 小时前
vue2与springboot实现deepseek打印机聊天
spring boot·websocket·ai·vue2·deepseek
乱世刀疤10 小时前
Dify修改默认80端口的方法
人工智能·dify
嗷嗷哦润橘_11 小时前
AI Agent学习:MetaGPT项目之RAG
人工智能·python·学习·算法·deepseek
weixin_4166600712 小时前
豆包与DeepSeek底层大模型的深度解析:技术架构、设计理念与生态分野
人工智能·ai·架构·deepseek
AI大模型学徒1 天前
大模型应用开发(十六)_知识库2
chatgpt·大模型·知识库·deepseek
视觉&物联智能2 天前
【杂谈】-RL即服务:解锁新一轮自主浪潮
人工智能·ai·chatgpt·aigc·强化学习·agi·deepseek
scx_link2 天前
使用docker安装ollama及ollama拉取模型的总结
运维·docker·容器·ollama
小付爱coding2 天前
本地部署dify教程【windows11版本】
java·ai·dify
姚华军2 天前
RagFlow、Dify部署时,端口如何调整成指定端口
人工智能·dify·ragflow
福大大架构师每日一题2 天前
ollama v0.13.2 最新更新详解:Qwen3-Next首发与性能优化
性能优化·ollama