下载 Ollama 访问 Ollama 下载页,下载对应系统 Ollama 客户端。或者参考文章【实战AI】macbook M1 本地ollama运行deepseek_m1 max可以跑deepseek吗-CSDN博客
dify
开源的 LLM 应用开发平台。提供从 Agent 构建到 AI workflow 编排、RAG 检索、模型管理等能力,轻松构建和运营生成式 AI 原生应用。
前提条件是,本地安装好了docker
- github 源码下载:
git clone https://github.com/langgenius/dify.git
- 配置dify
执行
cd /dify/docker
cp .env.example .env
3.启动
docker compose up -d
自行注册登录即可;
访问
在你的浏览里里输入http://localhost,就能看到这样的界面;
第一次登录,设置一下管理员账号。完成设置后,浏览器会自动跳转到登录页面,输入用户名和密码就能进入Dify 工作台。
配置本地模型
可以将自己本地的模型配置到dify中使用,也可以配置其他在线大模型,需要申请秘钥进行配置;
这里记录一下,我将我前两篇文章搭建的本地deepseek-r1:14b 模型配置的过程;
点击右上角用户名 》 设置 》 模型供应商
往下翻,找到ollama


-
模型名称: 可以执行 ollma list 查看
-
基础 URL:
http://<your-ollama-endpoint-domain>:11434
若 Dify 为 Docker 部署,建议填写局域网 IP 地址,例如:
http://192.168.1.100:11434
或 Docker 容器的内部 IP 地址,例如:http://host.docker.internal:11434
。若为本地源码部署,可填写
http://localhost:11434
。
在 Mac 上设置环境变量
如果 Ollama
作为 macOS
应用程序运行,则应使用以下命令设置环境变量 launchctl
:
-
通过调用
launchctl setenv
设置环境变量:Copy
bashlaunchctl setenv OLLAMA_HOST "0.0.0.0"
-
重启 Ollama 应用程序。
-
模型类型:
对话
-
模型上下文长度:
4096
模型的最大上下文长度,若不清楚可填写默认值 4096。
-
最大 token 上限:
4096
模型返回内容的最大 token 数量,若模型无特别说明,则可与模型上下文长度保持一致。
-
是否支持 Vision:
是
当模型支持图片理解(多模态)勾选此项,如
llava
。
点击 "保存" 校验无误后即可在应用中使用该模型。