【AI】mac 本地部署 Dify 实现智能体

下载 Ollama 访问 Ollama 下载页,下载对应系统 Ollama 客户端。或者参考文章【实战AI】macbook M1 本地ollama运行deepseek_m1 max可以跑deepseek吗-CSDN博客

dify

开源的 LLM 应用开发平台。提供从 Agent 构建到 AI workflow 编排、RAG 检索、模型管理等能力,轻松构建和运营生成式 AI 原生应用。

https://cloud.dify.ai/app

前提条件是,本地安装好了docker

  1. github 源码下载:

git clone https://github.com/langgenius/dify.git

  1. 配置dify

执行

cd /dify/docker

cp .env.example .env

3.启动

docker compose up -d

自行注册登录即可;

访问

在你的浏览里里输入http://localhost,就能看到这样的界面;

第一次登录,设置一下管理员账号。完成设置后,浏览器会自动跳转到登录页面,输入用户名和密码就能进入Dify 工作台。

配置本地模型

可以将自己本地的模型配置到dify中使用,也可以配置其他在线大模型,需要申请秘钥进行配置;

这里记录一下,我将我前两篇文章搭建的本地deepseek-r1:14b 模型配置的过程;

点击右上角用户名 》 设置 》 模型供应商

往下翻,找到ollama

  • 模型名称: 可以执行 ollma list 查看

  • 基础 URL:http://<your-ollama-endpoint-domain>:11434

    若 Dify 为 Docker 部署,建议填写局域网 IP 地址,例如:http://192.168.1.100:11434 或 Docker 容器的内部 IP 地址,例如:http://host.docker.internal:11434

    若为本地源码部署,可填写 http://localhost:11434

在 Mac 上设置环境变量

如果 Ollama 作为 macOS 应用程序运行,则应使用以下命令设置环境变量 launchctl

  1. 通过调用 launchctl setenv 设置环境变量:

    Copy

    bash 复制代码
    launchctl setenv OLLAMA_HOST "0.0.0.0"
  2. 重启 Ollama 应用程序。

  • 模型类型:对话

  • 模型上下文长度:4096

    模型的最大上下文长度,若不清楚可填写默认值 4096。

  • 最大 token 上限:4096

    模型返回内容的最大 token 数量,若模型无特别说明,则可与模型上下文长度保持一致。

  • 是否支持 Vision:

    当模型支持图片理解(多模态)勾选此项,如 llava

点击 "保存" 校验无误后即可在应用中使用该模型。

相关推荐
姚瑞南2 分钟前
【AI产品思路】AI 原型设计工具横评:产品经理视角下的 v0、Bolt 与 Lovable
人工智能·经验分享·笔记·aigc·产品经理
你好~每一天8 分钟前
2025年B端产品经理进阶指南:掌握这些计算机专业技能,决胜职场!
java·人工智能·经验分享·学习·产品经理·大学生
阿豪39 分钟前
2025 年职场:B 端产品经理用计算机专业技能优化产品全攻略(经验分享)
大数据·人工智能·科技·信息可视化·产品经理
孤狼程序员15 分钟前
DeepSeek文献太多太杂?一招制胜:学术论文检索的“核心公式”与提问艺术
人工智能·文献搜索·deepseek
Sui_Network17 分钟前
凭借 Seal,Walrus 成为首个具备访问控制的去中心化数据平台
大数据·人工智能·科技·web3·去中心化·区块链
老蒋新思维19 分钟前
2025变现打法:AI+IP实现高效变现|创客匠人
人工智能·知识付费·创始人ip·知识变现
TechubNews21 分钟前
Webus 与中国国际航空合作实现 XRP 支付
大数据·网络·人工智能·web3·区块链
ITZHIHONH22 分钟前
FastGPT源码解析 Agent知识库管理维护使用详解
开源·ai编程
图欧学习资源库22 分钟前
人工智能领域、图欧科技、IMYAI智能助手2025年8月更新月报
人工智能·科技
一颗202130 分钟前
深度解读:PSPNet(Pyramid Scene Parsing Network) — 用金字塔池化把“场景理解”装进分割网络
人工智能·深度学习·计算机视觉