SillyTavern使用本地大模型写故事实操手册

前置准备

  1. 安装必备工具
bash 复制代码
# 安装Homebrew (包管理器)
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"

# 安装Python 3.10 (M3芯片推荐)
brew install python@3.10

# 安装Node.js 20.x
brew install node@20

# 安装Git
brew install git

# 安装Ollama (用于LLM)
brew install ollama

# 安装Sox (用于CosyVoice)
brew install sox
  1. 验证安装
bash 复制代码
python3 --version  # 应显示 3.10.x
node -v            # 应显示 v20.x
ollama --version   # 应显示 0.1.x
  1. SillyTavern (情感/叙事写作)
bash 复制代码
cd ~/AI_Creation_System
git clone https://github.com/SillyTavern/SillyTavern -b release
cd SillyTavern
npm install

在 Ollama 中,Phi-3-mini 的正确拉取命令是:

bash 复制代码
ollama pull phi3:mini
ollama pull phi3:mini-q4_K_M   二选一都行 

🧪 快速测试步骤(M3 Mac 推荐)

bash 复制代码
# 1. 拉取模型(只需一次)
ollama pull phi3

# 2. 启动对话
ollama run phi3

# 3. 输入你的提示(比如):
写一个关于海边日落的微小说,要有孤独感和希望。

🔧 正确操作步骤(M3 Mac)

第一步:启动 Ollama(确保 LLM 可用)

bash 复制代码
# 确保 phi3 已安装
ollama pull phi3

# 启动 Ollama 服务(通常会自动启动)
ollama serve

✅ 验证:访问 http://localhost:11434/api/tags,应看到已安装的模型列表


第二步:启动 SillyTavern

bash 复制代码
cd ~/AI_Creation_System/SillyTavern
npm start

默认打开:http://localhost:8000


第三步:在 Web 界面中配置 Ollama(关键!)

  1. 打开浏览器 → http://localhost:3000
  2. 首次进入会看到欢迎界面,点击 "Connect to a backend"
  3. 选择 "Ollama" 作为后端
  4. 填写以下信息:
    • API URL : http://localhost:11434
    • Model : phi3(或其他你安装的模型,如 mistralqwen:7b
  5. 点击 "Test Connection" → 应显示 "Success!"
  6. 点击 "Save"

✅ 完成!现在你可以直接在聊天框里和 Phi-3 对话了。


配置大模型的时候要注意 这里要选择文本 ollama只支持文本模型

这是实际效果 具体怎么玩有兴趣的key自己研究下

相关推荐
苍何1 分钟前
免费!漫画 PPT + 全文档讲解,这谁顶得住啊。。。
人工智能
苍何3 分钟前
用 LiblibAI 做爆款动态海报,绝了!(附教程)
人工智能
翔云 OCR API6 分钟前
承兑汇票识别接口技术解析与应用实践
开发语言·人工智能·python·计算机视觉·ocr
苍何13 分钟前
终于找到可以一键做 AI 漫剧的方法了
人工智能
Parasoft中国13 分钟前
聚焦汽车网安落地!2026汽车网络安全标准及应用研讨会
人工智能·测试工具·安全·web安全·汽车
五度易链-区域产业数字化管理平台17 分钟前
大数据与 AI 赋能招商全流程:五度易链平台的技术架构与实践应用解析
大数据·人工智能
专业开发者28 分钟前
蓝牙 ® 技术在智慧城市中的应用
人工智能·物联网·智慧城市
机器之心30 分钟前
拿走200多万奖金的AI人才,到底给出了什么样的技术方案?
人工智能·openai
摘星编程42 分钟前
CANN内存管理机制:从分配策略到性能优化
人工智能·华为·性能优化
likerhood1 小时前
3. pytorch中数据集加载和处理
人工智能·pytorch·python