本地部署Dify 添加Ollama模型DeepSeek

1、准备工作

本地ollama 加载DeepSeek。

安装并登录Dify。

2、添加Ollama模型服务商

在设置-》模型服务上里添加Ollama模型服务商,也叫插件。

3、添加DeepSeek

使用终端命令 ollama list查询deepseek名称,如deepseek-r1:14b。

在Ollama插件冲添加LLM模型,

名称:deepseek-r1:14b

基础 URL:http://host.docker.internal:11434

其他参数随意

4、保存

相关推荐
yuhulkjv33513 小时前
deepseek怎么复制表格
人工智能·ai·chatgpt·豆包·deepseek·ai导出鸭
YoanAILab1 天前
AI 推理系统架构怎么选?图像生成与文本生成的分层选型思路(ComfyUI / Dify / vLLM / Triton)
人工智能·系统架构·comfyui·dify·vllm·ai工程
brucelee1861 天前
Debian 安装 Ollama 教程
debian·ollama·open claw
将冲破艾迪i1 天前
【AI】部署及调用deepseek和qwen等大模型
人工智能·python·ollama·deepseek
gujunge2 天前
Spring with AI (5): 搜索扩展——向量数据库与RAG(下)
ai·大模型·llm·openai·qwen·rag·spring ai·deepseek
竹之却2 天前
【Ollama】解决 ollama 软件下载慢,模型下载慢的问题
代理·ollama·deepseek·openclaw·ollama 模型下载
AI英德西牛仔2 天前
ChatGPT和Gemini导出word排版
人工智能·ai·chatgpt·word·deepseek·ds随心转
yc_xym3 天前
SpringAI快速入门
java·springai·deepseek
DS随心转插件3 天前
ChatGPT和Gemini怎么复制文字不乱码
人工智能·ai·chatgpt·deepseek·ai导出鸭
gujunge4 天前
Spring with AI (4): 搜索扩展——向量数据库与RAG(上)
ai·大模型·llm·openai·qwen·rag·spring ai·deepseek