总结VM 17 + ubuntu22+moltbot+LlamaIndex + Ollama+qwen:1.8b安装

VMware Workstation 17 + Ubuntu 22.04 + MoltBot + Ollama + qwen:1.8b + LlamaIndex(可选)

这份指南将按 真实操作顺序 编写,特别标注 网络、内存、代理、中文输入等关键坑点,适合你在新虚拟机中一键复现。

📋 总体流程概览

bash 复制代码
✅ 第一步:VMware Workstation 17 创建虚拟机
推荐配置
表格
项目	建议值
系统	Ubuntu 22.04 LTS (Desktop)
内存	≥8 GB(qwen:1.8b 需 ~6GB)
硬盘	≥50 GB(SSD 更佳)
网络	NAT(确保能上网)
共享文件夹	启用(方便传文件)
⚠️ 注意:不要用"最小安装",需桌面环境(方便终端+浏览器)
bash 复制代码
✅ 第二步:Ubuntu 22.04 初始设置
bash

编辑



# 1. 更新系统
sudo apt update && sudo apt upgrade -y

# 2. 安装常用工具
sudo apt install -y git curl wget vim net-tools htop

# 3. 设置时区(关键!WhatsApp/Ollama 依赖准确时间)
sudo timedatectl set-timezone Asia/Shanghai

# 4. (可选)安装中文语言包 + 输入法
sudo apt install -y language-pack-zh-hans fcitx fcitx-pinyin
# → 重启后在 Settings > Region & Language 添加 Chinese (Fcitx)

# 5. 禁用 IPv6(避免 WhatsApp 连接卡住)
echo 'net.ipv6.conf.all.disable_ipv6 = 1' | sudo tee -a /etc/sysctl.conf
sudo sysctl -p
⚠️ 重要:
如果在中国大陆,先确认网络能访问 GitHub/Ollama(可用手机热点)
不要提前设 http_proxy,除非代理已运行
bash 复制代码
✅ 第三步:安装 Node.js 20+ 和 TypeScript
bash

编辑



# 使用官方仓库安装 Node.js 20(推荐)
curl -fsSL https://deb.nodesource.com/setup_20.x | sudo -E bash -
sudo apt install -y nodejs

# 验证
node -v  # ≥ v20.0.0
npm -v

# 全局安装 tsx(用于运行 TS 脚本)
npm install -g tsx
⚠️ 不要用 snap 安装 Node.js(权限问题多)
bash 复制代码
✅ 第四步:安装 Ollama + qwen:1.8b
bash

编辑



# 1. 清除可能存在的错误代理
unset http_proxy https_proxy HTTP_PROXY HTTPS_PROXY

# 2. 修复 DNS(防止 registry.ollama.ai 解析失败)
echo "nameserver 8.8.8.8" | sudo tee /etc/resolv.conf

# 3. 安装 Ollama
curl -fsSL https://ollama.com/install.sh | sh

# 4. 启动服务
sudo systemctl enable ollama
sudo systemctl start ollama

# 5. 下载模型(需联网!建议开热点)
ollama pull qwen:1.8b

# 6. 测试
ollama run qwen:1.8b "你好"
⚠️ 注意事项:
必须保证下载过程网络稳定(中断需重下)
首次运行会解压模型,耐心等待 1~2 分钟
如果内存 < 6GB,改用 qwen:0.5b
bash 复制代码
✅ 第五步:部署 MoltBot 本地 CLI 模式
bash

编辑



# 1. 克隆项目(假设你已有 moltbot)
cd ~
git clone https://github.com/yourname/moltbot.git
cd moltbot

# 2. 安装依赖
npm install

# 3. 创建安全版 AI 脚本(ai-safe.ts)
# → 内容见前文,使用 spawn('ollama', ['run', 'qwen:1.8b', ...])

# 4. 创建全局启动脚本
cat > ~/moltbot.sh << 'EOF'
#!/bin/bash
cd ~/moltbot && npx tsx ai-safe.ts
EOF
chmod +x ~/moltbot.sh

# 5. 加入 PATH(可选)
echo 'export PATH="$HOME:$PATH"' >> ~/.bashrc
source ~/.bashrc
✅ 现在可直接运行:moltbot.sh
bash 复制代码
✅ 第六步:(可选)集成 LlamaIndex 做 RAG
适用于:你想让 MoltBot 自动读取 ~/docs/ 中的文件
bash

编辑



# 1. 安装 Python 3.10+
sudo apt install -y python3 python3-pip

# 2. 安装 LlamaIndex
pip3 install llama-index llama-index-llms-ollama llama-index-embeddings-huggingface

# 3. 创建 rag-bot.py(调用 Ollama + 本地文档)
# → 需编写加载 DirectoryReader + Ollama LLM 的脚本

# 4. 在 ai-safe.ts 中调用该 Python 脚本(通过 child_process)
⚠️ 注意:LlamaIndex 需要额外内存(建议 ≥12GB),且首次运行会下载 embedding 模型(~500MB)

🧪 最终验证命令

bash 复制代码
wan@wan-virtual-machine:~/moltbot$ node -v && npm -v && ollama --version
v24.13.0
11.6.2
ollama version is 0.15.2
wan@wan-virtual-machine:~/moltbot$ ollama run qwen:1.8b "1+1=?"
1 + 1 = 2

wan@wan-virtual-machine:~/moltbot$ moltbot.sh
🤖 MoltBot - 本地中文 AI 助手(输入 '/send' 提交)

💡 使用方法:
- 可多行输入问题或上下文
- 输入 '/send' 后,AI 开始思考并回答
- 输入 'exit' 退出

> hello 
>>> /send

🧠 思考中...

🤖 MoltBot:
Hello! How can I help you today? Do you have any questions or need assistance with a task? Let me know how I can be of assistance to you.

⚠️ 注意:LlamaIndex 需要额外内存(建议 ≥12GB),且首次运行会下载 embedding 模型(~500MB),小编的小心脏,不能玩,就放弃了

相关推荐
IT WorryFree3 小时前
肺癌机器人专用技能定制(OpenClaw-Medical-Skills 适配版)
机器人
鲁邦通物联网6 小时前
酒店与园区梯控安装架构设计:非侵入式物理隔离与状态机实现
机器人·巡检机器人·机器人梯控·agv梯控·机器人乘梯·机器人自主乘梯·agv机器人梯控
kobesdu7 小时前
FAST-LIO2 + 蓝海M300激光雷达:从建图到实时栅格图的完整流程
算法·机器人·ros·slam·fast lio
Deepoch8 小时前
VLA边缘认知系统:Deepoc开发板让除草机器人懂农艺会决策
机器人
猿饵块10 小时前
机器人--cfg参数
人工智能·机器人
视***间11 小时前
智赋机器人,算力启新程——视程空间以全栈算力方案,让智能机器人真正落地千行百业
人工智能·机器人·边缘计算·视程空间·高算力·2070tflops
Deepoch11 小时前
Deepoc开发板:VLA架构赋能巡检机器人智能作业新范式
科技·机器人·具身模型·deepoc
出门吃三碗饭11 小时前
Robotics从零动手做一个迷你机器人并学会控制它
机器人·twist
穿条秋裤到处跑11 小时前
每日一道leetcode(2026.04.07):模拟行走机器人 II
leetcode·机器人
福客AI智能客服11 小时前
电商客服机器人:AI智能客服系统如何提升电商运营效率
人工智能·机器人