本地部署Dify 添加Ollama模型DeepSeek

1、准备工作

本地ollama 加载DeepSeek。

安装并登录Dify。

2、添加Ollama模型服务商

在设置-》模型服务上里添加Ollama模型服务商,也叫插件。

3、添加DeepSeek

使用终端命令 ollama list查询deepseek名称,如deepseek-r1:14b。

在Ollama插件冲添加LLM模型,

名称:deepseek-r1:14b

基础 URL:http://host.docker.internal:11434

其他参数随意

4、保存

相关推荐
七夜zippoe21 小时前
基于Qwen2.5-7B-Chat的本地化部署实战——从模型原理到企业级应用
vllm·ollama·qwen2.5·gradio web·企业级api
realhuizhu1 天前
90%的OKR都写成了KPI?其实你缺的不是表格,而是"教练"
ai工具·目标管理·okr·deepseek·团队效能
大模型真好玩2 天前
Gemini3.0深度解析,它在重新定义智能,会是前端工程师噩梦吗?
人工智能·agent·deepseek
www_stdio2 天前
与大模型共舞:从 DeepSeek 到模块化智能应用开发
deepseek
ohyeah2 天前
前端开发者也能玩转大模型:使用HTTP请求调用DeepSeek全记录
前端·人工智能·deepseek
油炸小波3 天前
02-AI应用开发平台Dify
人工智能·python·dify·coze
量子位4 天前
啊?微博7800美元训的大模型,数学能力超了DeepSeek-R1
ai编程·deepseek
是Dream呀5 天前
一个账号调用N个AI模型!从LLM到视频生成的丝滑解决方案
人工智能·大模型·aigc·音视频·deepseek
Jack_abu6 天前
RAG系统学习之——RAG技术详解与实战指南
llm·rag·ollama
油炸小波6 天前
Dify安装部署
dify