DeerFlow本地部署!调用本地大模型

前提

  1. 一台mac电脑
  2. 本地已安装ollama,此处以qwen3.5:4b模型为例(如果使用的是LM Studio或者其他模型,可以自测)
    在ollama设置中打开一个设置。
  3. 已安装homebrew。

需安装的环境

  1. git。安装命令如下:
bash 复制代码
brew install git
# 检查命令
git --version
  1. Node.js。
bash 复制代码
brew install node@22
# 检查命令
node --version
  1. pnpm
bash 复制代码
npm install -g pnpm
# 检查命令
pnpm --version
  1. uv
bash 复制代码
brew install uv
# 检查命令
uv --version
  1. nginx
bash 复制代码
brew install nginx
# 检查命令
nginx -v

安装(一行一行执行就可以)

bash 复制代码
# 1下载项目
git clone https://github.com/bytedance/deer-flow.git
# 2进入项目路径
cd deer-flow
# 3检查依赖,出现OK All dependencies are installed!才算完成。有失败就装下失败的,再重新检查
make check
# 4生成配置文件
make config
# 5配置模型
vi config.yaml
  1. 将下面内容粘贴进config.yaml中,替代models里注释掉的东西。
    其中base_url中的ip写本机ip,可以通过ifconfig命令直接在终端查询。
bash 复制代码
  - name: qwen3.5
    display_name: Qwen3.5 4B (Ollama)
    use: langchain_ollama:ChatOllama
    model: qwen3.5:4b
    base_url: http://192.168.1.224:11434   # No /v1 suffix --- uses native /api/chat
    num_predict: 8192
    temperature: 0.7
    reasoning: true                    # Passes think:true to Ollama native API
    supports_thinking: true
    supports_vision: false

也可以用在线大模型,文件中有例子,可以直接改一下api key。

可以启动执行:

bash 复制代码
# 7安装项目依赖
make install
# 8启动。
make dev

日志显示如下:

如果有端口被占用情况,直接改下端口号。

结果呈现

访问http://localhost:2026

参考:https://www.toutiao.com/article/7625892456562770472/?wid=1776316957469

相关推荐
m0_716430072 小时前
Laravel 迁移中外键约束错误的成因与修复方案.txt
jvm·数据库·python
2201_756847332 小时前
CSS如何利用CSS变量管理间距_统一定义盒模型数值
jvm·数据库·python
Greyson12 小时前
PHP怎么用array_unique去重数组元素【方法】.txt
jvm·数据库·python
weixin_580614002 小时前
Bootstrap制作后台管理系统布局 Bootstrap如何搭建Dashboard框架.txt
jvm·数据库·python
吕源林2 小时前
mysql慢查询如何自动捕获_配置slow_query_log与慢查询分析工具
jvm·数据库·python
柠檬07112 小时前
记录bug :C++调用python 路径问题
c++·python·bug
啦啦啦_99992 小时前
5. 进程
python
m0_640309302 小时前
Symfony7新特性全解析:性能提升40%!
jvm·数据库·python
Polar__Star2 小时前
CSS如何解决CSS引入后的样式覆盖_理解优先级原则避免重写.txt
jvm·数据库·python