Windows本地部署OpenManus并接入Mistral模型的实践记录

文章目录

  • 前言
  • 环境准备
    • [1. 安装Conda](#1. 安装Conda)
    • [2. 创建并激活环境](#2. 创建并激活环境)
  • 安装Ollama
    • [1. 下载并安装Ollama](#1. 下载并安装Ollama)
    • [2. 拉取Mistral模型](#2. 拉取Mistral模型)
  • 安装OpenManus
    • [1. 克隆仓库](#1. 克隆仓库)
    • [2. 安装依赖](#2. 安装依赖)
    • [3. 配置OpenManus](#3. 配置OpenManus)
  • 连接OpenManus与Ollama
    • [1. 网络配置](#1. 网络配置)
    • [2. 启动服务](#2. 启动服务)
  • 总结与心得

前言

最近Manus作为一款强大的本地LLM应用平台引起了广泛关注,但遗憾的是它需要邀请码才能使用,这让很多想尝试的开发者望而却步。令人惊喜的是,OpenManus团队仅用了3小时就复刻了一个功能相似的开源替代方案。这让我非常兴奋,立刻决定尝试在本地部署OpenManus,并搭配Ollama运行的Mistral:latest模型,打造一套完全私有化的AI对话系统。本文将记录我在Windows环境下的完整部署过程,希望能给有类似需求的朋友提供参考。

环境准备

首先,我选择使用Conda来创建一个独立的Python环境,这样可以避免依赖冲突问题。

1. 安装Conda

如果你还没有安装Conda,可以先从官网下载Miniconda:Miniconda

这里输入我们的邮箱,然后点击Submit提交,随后会跳转到安装页面

我下载了Windows 64位的安装包,安装过程按默认选项一路下一步即可。安装完成后,打开命令提示符或PowerShell,确认安装成功:

bash 复制代码
conda --version

2. 创建并激活环境

接下来创建一个专用的环境用于OpenManus:

bash 复制代码
conda create -n open_manus python=3.12
conda activate open_manus

安装Ollama

1. 下载并安装Ollama

前往Ollama官网下载Windows版本的安装程序。安装过程很简单,双击exe文件并按提示完成即可。安装完成后,Ollama会在后台运行,可以在系统托盘找到它的图标。

安装完成后,打开命令提示符或PowerShell输入ollama --version,确认安装成功:

2. 拉取Mistral模型

打开命令提示符,运行:

bash 复制代码
ollama run mistral

这一步会下载Mistral模型文件,根据网络状况可能需要一段时间(文件大约7GB左右)。完成后可以测试一下:

如果能看到模型返回的回答,说明Ollama工作正常。

安装OpenManus

1. 克隆仓库

在激活的conda环境中,我首先克隆了OpenManus的代码库:

bash 复制代码
git clone https://github.com/mannaandpoem/OpenManus.git
cd OpenManus

2. 安装依赖

bash 复制代码
pip install -r requirements.txt

这一步可能会有一些依赖冲突,我遇到了numpy版本的问题,通过以下方式解决:

bash 复制代码
pip install numpy==1.23.5

然后再次运行pip install -r requirements.txt完成安装。

3. 配置OpenManus

OpenManus的配置主要在config.yaml文件中,我复制了示例配置并进行了修改:

bash 复制代码
copy config\config.example.toml config\config.toml

使用文本编辑器打开config.yaml,将LLM部分配置修改为:

连接OpenManus与Ollama

1. 网络配置

确保Ollama的API可以被OpenManus访问。Ollama默认在11434端口提供服务,我检查了Windows防火墙设置,确保这个端口没有被阻止。

2. 启动服务

现在可以启动OpenManus服务了:

bash 复制代码
python main.py

首次启动时,OpenManus会尝试连接Ollama服务并验证Mistral模型是否可用。在控制台上应该能看到成功连接的日志信息。

总结与心得

通过这次本地部署OpenManus和Mistral模型的实践,我获得了一套完全私有化的AI对话系统。这种开源替代方案不需要像原版Manus那样等待邀请码,任何人都可以立即部署使用,真正体现了开源社区的力量。

与云服务相比,虽然部署过程更复杂一些,但数据完全在本地,没有隐私泄露的风险,而且没有API调用费用,非常适合个人或小团队使用。

Mistral:latest模型的表现让我很惊喜,在多数日常任务中,它的回答质量已经可以满足我的需求,而且本地运行的响应速度也相当不错。

最后,通过Conda管理环境确实是个明智的选择,它让我能够随时切换、升级或回滚环境,而不影响系统中的其他Python项目。

希望这篇部署记录对感兴趣的朋友有所帮助!如果你有任何问题或改进建议,欢迎留言交流。

相关推荐
ECT-OS-JiuHuaShan18 小时前
整体是函数,部分是子函数——范畴论框架下的严格证明
人工智能
柯儿的天空18 小时前
【OpenClaw 全面解析:从零到精通】第 004 篇:OpenClaw 在 Linux/Ubuntu 上的安装与部署实战
linux·人工智能·ubuntu·elasticsearch·知识图谱
xixixi7777718 小时前
从SQL注入到XSS:实战Web安全渗透测试
人工智能·安全·web安全·网络安全·卫星通信
代码探秘者18 小时前
【算法篇】1.双指针
java·数据结构·人工智能·后端·python·算法
倦王18 小时前
Dify的部署(详细步骤一步一步)
人工智能
一水鉴天18 小时前
整体设计 设计文档修订与重构修改稿 (豆包助手)20260321
人工智能·重构
小马过河R18 小时前
小白沉浸式本地Mac小龙虾OpenClaw部署安装教程
人工智能·macos·大模型·nlp·agent·openclaw·龙虾
郭庆汝18 小时前
OpenManus使用详细流程
openmanus
hitgavin18 小时前
Physical Intelligence RLT
人工智能
xwz小王子18 小时前
Science Robotics 赋予机器人“类脑”触觉,低成本视觉-触觉预训练攻克灵巧手多任务操作
人工智能·算法·机器人