总结VM 17 + ubuntu22+moltbot+LlamaIndex + Ollama+qwen:1.8b安装

VMware Workstation 17 + Ubuntu 22.04 + MoltBot + Ollama + qwen:1.8b + LlamaIndex(可选)

这份指南将按 真实操作顺序 编写,特别标注 网络、内存、代理、中文输入等关键坑点,适合你在新虚拟机中一键复现。

📋 总体流程概览

bash 复制代码
✅ 第一步:VMware Workstation 17 创建虚拟机
推荐配置
表格
项目	建议值
系统	Ubuntu 22.04 LTS (Desktop)
内存	≥8 GB(qwen:1.8b 需 ~6GB)
硬盘	≥50 GB(SSD 更佳)
网络	NAT(确保能上网)
共享文件夹	启用(方便传文件)
⚠️ 注意:不要用"最小安装",需桌面环境(方便终端+浏览器)
bash 复制代码
✅ 第二步:Ubuntu 22.04 初始设置
bash

编辑



# 1. 更新系统
sudo apt update && sudo apt upgrade -y

# 2. 安装常用工具
sudo apt install -y git curl wget vim net-tools htop

# 3. 设置时区(关键!WhatsApp/Ollama 依赖准确时间)
sudo timedatectl set-timezone Asia/Shanghai

# 4. (可选)安装中文语言包 + 输入法
sudo apt install -y language-pack-zh-hans fcitx fcitx-pinyin
# → 重启后在 Settings > Region & Language 添加 Chinese (Fcitx)

# 5. 禁用 IPv6(避免 WhatsApp 连接卡住)
echo 'net.ipv6.conf.all.disable_ipv6 = 1' | sudo tee -a /etc/sysctl.conf
sudo sysctl -p
⚠️ 重要:
如果在中国大陆,先确认网络能访问 GitHub/Ollama(可用手机热点)
不要提前设 http_proxy,除非代理已运行
bash 复制代码
✅ 第三步:安装 Node.js 20+ 和 TypeScript
bash

编辑



# 使用官方仓库安装 Node.js 20(推荐)
curl -fsSL https://deb.nodesource.com/setup_20.x | sudo -E bash -
sudo apt install -y nodejs

# 验证
node -v  # ≥ v20.0.0
npm -v

# 全局安装 tsx(用于运行 TS 脚本)
npm install -g tsx
⚠️ 不要用 snap 安装 Node.js(权限问题多)
bash 复制代码
✅ 第四步:安装 Ollama + qwen:1.8b
bash

编辑



# 1. 清除可能存在的错误代理
unset http_proxy https_proxy HTTP_PROXY HTTPS_PROXY

# 2. 修复 DNS(防止 registry.ollama.ai 解析失败)
echo "nameserver 8.8.8.8" | sudo tee /etc/resolv.conf

# 3. 安装 Ollama
curl -fsSL https://ollama.com/install.sh | sh

# 4. 启动服务
sudo systemctl enable ollama
sudo systemctl start ollama

# 5. 下载模型(需联网!建议开热点)
ollama pull qwen:1.8b

# 6. 测试
ollama run qwen:1.8b "你好"
⚠️ 注意事项:
必须保证下载过程网络稳定(中断需重下)
首次运行会解压模型,耐心等待 1~2 分钟
如果内存 < 6GB,改用 qwen:0.5b
bash 复制代码
✅ 第五步:部署 MoltBot 本地 CLI 模式
bash

编辑



# 1. 克隆项目(假设你已有 moltbot)
cd ~
git clone https://github.com/yourname/moltbot.git
cd moltbot

# 2. 安装依赖
npm install

# 3. 创建安全版 AI 脚本(ai-safe.ts)
# → 内容见前文,使用 spawn('ollama', ['run', 'qwen:1.8b', ...])

# 4. 创建全局启动脚本
cat > ~/moltbot.sh << 'EOF'
#!/bin/bash
cd ~/moltbot && npx tsx ai-safe.ts
EOF
chmod +x ~/moltbot.sh

# 5. 加入 PATH(可选)
echo 'export PATH="$HOME:$PATH"' >> ~/.bashrc
source ~/.bashrc
✅ 现在可直接运行:moltbot.sh
bash 复制代码
✅ 第六步:(可选)集成 LlamaIndex 做 RAG
适用于:你想让 MoltBot 自动读取 ~/docs/ 中的文件
bash

编辑



# 1. 安装 Python 3.10+
sudo apt install -y python3 python3-pip

# 2. 安装 LlamaIndex
pip3 install llama-index llama-index-llms-ollama llama-index-embeddings-huggingface

# 3. 创建 rag-bot.py(调用 Ollama + 本地文档)
# → 需编写加载 DirectoryReader + Ollama LLM 的脚本

# 4. 在 ai-safe.ts 中调用该 Python 脚本(通过 child_process)
⚠️ 注意:LlamaIndex 需要额外内存(建议 ≥12GB),且首次运行会下载 embedding 模型(~500MB)

🧪 最终验证命令

bash 复制代码
wan@wan-virtual-machine:~/moltbot$ node -v && npm -v && ollama --version
v24.13.0
11.6.2
ollama version is 0.15.2
wan@wan-virtual-machine:~/moltbot$ ollama run qwen:1.8b "1+1=?"
1 + 1 = 2

wan@wan-virtual-machine:~/moltbot$ moltbot.sh
🤖 MoltBot - 本地中文 AI 助手(输入 '/send' 提交)

💡 使用方法:
- 可多行输入问题或上下文
- 输入 '/send' 后,AI 开始思考并回答
- 输入 'exit' 退出

> hello 
>>> /send

🧠 思考中...

🤖 MoltBot:
Hello! How can I help you today? Do you have any questions or need assistance with a task? Let me know how I can be of assistance to you.

⚠️ 注意:LlamaIndex 需要额外内存(建议 ≥12GB),且首次运行会下载 embedding 模型(~500MB),小编的小心脏,不能玩,就放弃了

相关推荐
阿祥_csdn40 分钟前
openclaw接入飞书机器人
机器人·飞书·openclaw
V搜xhliang02463 小时前
手术机器人导航软件
大数据·人工智能·机器学习·自然语言处理·机器人
超级璐璐3 小时前
fastlivo2修改记录
机器人
信道者4 小时前
俄乌战场开启“机器人战争”时代:UGV成建制投入实战
机器人
不羁的木木5 小时前
MacOS 安装 OpenClaw 并接入飞书机器人(保姆级教程 + 常见问题解决)
macos·机器人·飞书
zh路西法7 小时前
【宇树机器人强化学习】(三):OnPolicyRunner和VecEnv以及RolloutStorage的python实现与解析
开发语言·python·深度学习·机器学习·机器人
小张贼嚣张8 小时前
宇树科技机器人核心技术
科技·机器人
码农三叔8 小时前
(9-1)多模态融合理论与方法:低层融合
人工智能·机器学习·计算机视觉·机器人
STNE8 小时前
机器人爱好者疑问:DreamZero跨具身适应为何领先两倍?
机器人
weixin_440401698 小时前
网络机器人(爬虫)+Xpath+网页F12+爬取电影Top100
爬虫·python·机器人