Windows本地部署OpenManus并接入Mistral模型的实践记录

文章目录

  • 前言
  • 环境准备
    • [1. 安装Conda](#1. 安装Conda)
    • [2. 创建并激活环境](#2. 创建并激活环境)
  • 安装Ollama
    • [1. 下载并安装Ollama](#1. 下载并安装Ollama)
    • [2. 拉取Mistral模型](#2. 拉取Mistral模型)
  • 安装OpenManus
    • [1. 克隆仓库](#1. 克隆仓库)
    • [2. 安装依赖](#2. 安装依赖)
    • [3. 配置OpenManus](#3. 配置OpenManus)
  • 连接OpenManus与Ollama
    • [1. 网络配置](#1. 网络配置)
    • [2. 启动服务](#2. 启动服务)
  • 总结与心得

前言

最近Manus作为一款强大的本地LLM应用平台引起了广泛关注,但遗憾的是它需要邀请码才能使用,这让很多想尝试的开发者望而却步。令人惊喜的是,OpenManus团队仅用了3小时就复刻了一个功能相似的开源替代方案。这让我非常兴奋,立刻决定尝试在本地部署OpenManus,并搭配Ollama运行的Mistral:latest模型,打造一套完全私有化的AI对话系统。本文将记录我在Windows环境下的完整部署过程,希望能给有类似需求的朋友提供参考。

环境准备

首先,我选择使用Conda来创建一个独立的Python环境,这样可以避免依赖冲突问题。

1. 安装Conda

如果你还没有安装Conda,可以先从官网下载Miniconda:Miniconda

这里输入我们的邮箱,然后点击Submit提交,随后会跳转到安装页面

我下载了Windows 64位的安装包,安装过程按默认选项一路下一步即可。安装完成后,打开命令提示符或PowerShell,确认安装成功:

bash 复制代码
conda --version

2. 创建并激活环境

接下来创建一个专用的环境用于OpenManus:

bash 复制代码
conda create -n open_manus python=3.12
conda activate open_manus

安装Ollama

1. 下载并安装Ollama

前往Ollama官网下载Windows版本的安装程序。安装过程很简单,双击exe文件并按提示完成即可。安装完成后,Ollama会在后台运行,可以在系统托盘找到它的图标。

安装完成后,打开命令提示符或PowerShell输入ollama --version,确认安装成功:

2. 拉取Mistral模型

打开命令提示符,运行:

bash 复制代码
ollama run mistral

这一步会下载Mistral模型文件,根据网络状况可能需要一段时间(文件大约7GB左右)。完成后可以测试一下:

如果能看到模型返回的回答,说明Ollama工作正常。

安装OpenManus

1. 克隆仓库

在激活的conda环境中,我首先克隆了OpenManus的代码库:

bash 复制代码
git clone https://github.com/mannaandpoem/OpenManus.git
cd OpenManus

2. 安装依赖

bash 复制代码
pip install -r requirements.txt

这一步可能会有一些依赖冲突,我遇到了numpy版本的问题,通过以下方式解决:

bash 复制代码
pip install numpy==1.23.5

然后再次运行pip install -r requirements.txt完成安装。

3. 配置OpenManus

OpenManus的配置主要在config.yaml文件中,我复制了示例配置并进行了修改:

bash 复制代码
copy config\config.example.toml config\config.toml

使用文本编辑器打开config.yaml,将LLM部分配置修改为:

连接OpenManus与Ollama

1. 网络配置

确保Ollama的API可以被OpenManus访问。Ollama默认在11434端口提供服务,我检查了Windows防火墙设置,确保这个端口没有被阻止。

2. 启动服务

现在可以启动OpenManus服务了:

bash 复制代码
python main.py

首次启动时,OpenManus会尝试连接Ollama服务并验证Mistral模型是否可用。在控制台上应该能看到成功连接的日志信息。

总结与心得

通过这次本地部署OpenManus和Mistral模型的实践,我获得了一套完全私有化的AI对话系统。这种开源替代方案不需要像原版Manus那样等待邀请码,任何人都可以立即部署使用,真正体现了开源社区的力量。

与云服务相比,虽然部署过程更复杂一些,但数据完全在本地,没有隐私泄露的风险,而且没有API调用费用,非常适合个人或小团队使用。

Mistral:latest模型的表现让我很惊喜,在多数日常任务中,它的回答质量已经可以满足我的需求,而且本地运行的响应速度也相当不错。

最后,通过Conda管理环境确实是个明智的选择,它让我能够随时切换、升级或回滚环境,而不影响系统中的其他Python项目。

希望这篇部署记录对感兴趣的朋友有所帮助!如果你有任何问题或改进建议,欢迎留言交流。

相关推荐
张较瘦_1 分钟前
[论文阅读] 人工智能 + 软件工程 | NoCode-bench:评估LLM无代码功能添加能力的新基准
论文阅读·人工智能·软件工程
go54631584654 分钟前
Python点阵字生成与优化:从基础实现到高级渲染技术
开发语言·人工智能·python·深度学习·分类·数据挖掘
Coovally AI模型快速验证15 分钟前
避开算力坑!无人机桥梁检测场景下YOLO模型选型指南
人工智能·深度学习·yolo·计算机视觉·目标跟踪·无人机
巫婆理发22240 分钟前
神经网络(第二课第一周)
人工智能·深度学习·神经网络
欧阳小猜1 小时前
OpenCV-图像预处理➁【图像插值方法、边缘填充策略、图像矫正、掩膜应用、水印添加,图像的噪点消除】
人工智能·opencv·计算机视觉
旭日东升的xu.1 小时前
OpenCV(04)梯度处理,边缘检测,绘制轮廓,凸包特征检测,轮廓特征查找
人工智能·opencv·计算机视觉
liliangcsdn1 小时前
mac测试ollama llamaindex
数据仓库·人工智能·prompt·llama
qyhua1 小时前
Windows 平台源码部署 Dify教程(不依赖 Docker)
人工智能·windows·python
DisonTangor2 小时前
Mistral AI开源 Magistral-Small-2507
人工智能·语言模型·开源·aigc
青Cheng序员石头2 小时前
【转译】Agentic AI 与 AI Agent:五大差异及其重要性
llm·aigc·agent