零基础搭建本地私人心理医生AI:大模型部署与训练全流程实录

免责声明:

本文内容仅供技术交流和学习参考,不能替代专业心理医生的诊断和治疗。

1、简介

本文只是以私人心理医生的切入点, 探讨大模型的本地部署和训练。

由于我也不是很熟悉这个流程, 我们先分析技术可行性吧。

2、可行性分析

  • 本地机器配置
  • 大模型选择
  • 大模型如何配置
  • 大模型如何训练

大家都知道,像 ChatGPT。 DeepSeek, Claude-3.7 都需要特别强的设备 和 显卡 才能进行部署训练。 我手里这台笔记本在技术上可以跑的起来嘛?

从上图可以看出我本地的硬件为:

  • CPU: 13th Gen Intel(R) Core(TM) i7-1355U 1.70 GHz
  • RAM: 32GB
  • SSD: 1TB
  • GPU: 核显

我们将这个电脑的配置发送给GPT,咨询一下GPT这台设备。能否完成此项任务, 应该选择跑那个模型。

输入提示词prompt:

scss 复制代码
你好, 我想通过大模型训练一个私人心理医生。我的本地机器配置是, 处理器是 13th Gen Intel(R) Core(TM) i7-1355U , 内存是 32GB, 固态硬盘容量为 1TB, 无独立显卡,应该是集成显卡。 麻烦你帮我看看我这个机器配置 可以部署大模型完成这项工作嘛?

GPT的回复是可以的, 并推荐 Qwen1.5-1.8B/4B 这个模型。 那我们的后续的工作就围绕这个模型展开。

目前本地部署大模型有两种方式, 分别为 LM Studio 和 Ollama。作为初学者, 我们选择使用 简单的 LM Studio 来部署。

  • **** 还是 Ollama

3、本地部署模型

接下来让我们在本地部署 配置模型

3.1 下载并安装 LM Studio

打开官网:lmstudio.ai

点击下载按钮,获取 Windows 安装包并安装。

安装后打开 LM Studio,界面如下(分为左侧菜单和右侧模型控制区)。

3.2 下载 Qwen1.5 模型

  1. 点击左侧菜单:ModelsDownload models

  2. 在搜索框输入:

    复制代码
    Qwen1.5-1.8B-Chat-GGUF
  1. 找到由 Qwen 官方发布的版本(gguf 格式),选择如下版本下载:

    • 推荐量化格式q4_0.ggufq4_K_M.gguf
    • 下载文件大小:约 2--4GB,适合你的内存
  1. 等待模型下载完成,LM Studio 会自动识别并加载。

3.3、运行模型进行聊天

  • 在左侧菜单点击 Chat

  • 顶部"Select a model",选择你刚下载的 Qwen1.5-1.8B-Chat

  • 在聊天框输入问题,比如:测试一下他是谁

3.4 配置大模型

1、设置心理医生人格(Prompt)

让我们通过GPT来编写 Prompt:

markdown 复制代码
你是一位温柔、专业、值得信赖的心理咨询师。你受过系统的心理学培训,擅长倾听、共情、引导来访者表达真实情感,并帮助他们厘清困扰、找到方向。

你的任务是为用户提供心理支持与情绪疏导,避免做出任何医学诊断或具体处方建议。

你在对话中应注意以下行为准则:

1. **共情而非评判**:你会尊重用户的情感,不否定、不批评,引导他们更深入地理解自己。
2. **开放式提问**:鼓励用户思考自己的行为、情绪、动机,而不是直接给出建议。
3. **语言风格温和、支持性强**:保持语气友好、安抚、诚恳,避免使用教条式或命令式语言。
4. **避免诊断标签**:你不会使用"抑郁症""焦虑障碍"等医学术语,也不做出疾病判断。
5. **数据安全与隐私**:你清楚地知道自己运行在用户的本地设备上,不会记录、上传或存储任何私人信息。用户的所有谈话完全私密,绝不会被分享或用于分析。
6. **无需表达法律、医疗、危机干预建议**:若用户出现严重心理危机(如自残/自杀念头),请引导用户尽快联系现实中的心理专业人员或拨打当地紧急热线。
7. **保持耐心与节奏**:在用户长时间沉默或表达含糊时,也要保持耐心,用温和语气鼓励他们继续表达。

请牢记:你的目标是成为用户可以信任的倾诉对象和情绪支持者,而非评判者、医生或"解决问题"的机器。

请用中文回答用户的问题。

Chat 页面顶部点击齿轮⚙️,添加 system prompt

太棒了,恭喜你顺利完成部署!🎉 现在你已经拥有一个真正意义上的本地私人心理医生助手,运行在你自己的电脑上,数据私密、随时可用、无需联网。

4、训练

到目前为止, 我们部署的这个模型 还是一个通用 的 生成式对话模型。 对心理问题的分析, 和心理医生的 专业技能的沟通理解还不是很到位。 接下来, 将针对这个模型进行 方向性的 训练。

我们使用 LoRA 进行微调训练模型。 使用 LoRA 训练模型流程:

  • 准备心理对话数据集

  • 使用 LoRA 微调 Qwen1.5-1.8B 模型

  • 将模型合并为 GGUF 格式

  • 用 LM Studio 加载使用这个新模型

总体流程:

复制代码
语料收集 → LoRA 微调 → 模型合并 → GGUF 转换 → LM Studio 加载 → 本地测试效果

4.1 准备工作

我们让ChatGPT 帮我们 生成心理对话数据集 和 和 完整的工程包。 将生成的语料放入完整的工程包内。 工程包下载下来之后, 我们使用 Trae 打开

完整训练工程包,包含了:

  • train.json:100 条中文心理咨询语料
  • train.py:LoRA 微调训练脚本
  • requirements.txt:所需 Python 依赖
  • 项目结构预留了 model/qwen-base/ 目录用于放置 Qwen 模型

我们刚才在在 LM Studio 中下载的 Qwen1.5-1.8B-Chat 模型,是 GGUF 格式的量化模型,这种格式是专门为运行而优化的,而不是用来训练的。必须去 Hugging Face 下载 Qwen 的 HF 原始模型 进行训练。

Hugging Face 下载原始模型, 并将 下载的 Qwen1.5-1.8B-Chat 模型(HF格式)放入 model/qwen-base/

如果不能科学上网, 可以选择 国内镜像站 ModelScope 进行下载。 推荐使用国内镜像下载, 下载会稳定一些。

4.2 开始训练

推荐使用 Python 3.12, 我使用Python 3.13 遇到一些包的兼容问题。

使用命令行运行训练:

复制代码
pip install -r requirements.txt

python train.py

如果输出了 训练进度, 就说明已经在训练了。 如果输出错误可以咨询GPT或者 Trae 进行询问解决。

可以看出, 由于我手上这台笔记本没有GPU, CPU 直接跑满了

经过跟GPT的几次斗智斗勇 , 终于训练成功了。

4.3 将模型合并为 GGUF 格式

接下来 我们将训练好的模型, 合并并导出GGUF格式。

我们让GPT帮忙写一个 适用于 Windows + CPU 环境 的完整 Python 脚本 merge_lora_and_export.py,它实现:

  1. 加载 Qwen1.5-1.8B 基础模型;
  2. 合并训练好的 LoRA 权重;
  3. 保存为 HuggingFace 格式;
  4. 调用 llama.cpp 中的 convert_hf_to_gguf.py 脚本转换为 GGUF 格式,适配 LM Studio 使用。

克隆 llama.cpp:

bash 复制代码
git clone https://github.com/ggerganov/llama.cpp
cd llama.cpp
pip install -r requirements.txt

然后在项目根目录执行:

复制代码
python merge_lora_and_export.py

这个 Qwen1.5-1.8B-merged.gguf 文件 就是我们最终训练完成的 模型。

我们将这个文件导入到 LM Stduio中, 对比一下原始模型和我们的训练模型的区别。

原始模型:

训练模型:

可以看出, 训练后的模型,有了明显的安慰语气。

4.4 后续工作

可以看出, 上述我们只是试验了一下模型训练的流程, 但是就使用层面还远远达不到我们的预期。 有了基本的流程, 我们接下来的重点工作就是:

  • 有独立显卡, 配置更高的PC设备
  • 选择更强的, 具有推理性的模型,如 Qwen 3, DeepSeek等
  • 更多的关于心理医生对话的语料收集

有了这些之后, 使用相同的训练流程, 我相信结果会更好。

5 总结

大模型的部署和训练, 我之前从来都没有接触使用过。 本文所述的整个流程, 都是在Chat GPT 的指导下面完成的。 可见虽然完全不了解某个领域的知识, 在AI的指导下还是能完成基本的工作流程。 AI真是扩展了人的边界。

相关推荐
深科文库8 小时前
构建 MCP 服务器:第 2 部分 — 使用资源模板扩展资源
人工智能·chatgpt·llama
coder_pig10 小时前
【Trae + 掘金MCP】不写代码,靠嘴遁花0.5h定制公号排版工具
aigc·mcp·trae
楽码14 小时前
AI信息论:处理繁杂问题
人工智能·openai·trae
荣姐聊AI15 小时前
项目告急,协议不懂?看AI编程工具Cursor如何3小时力挽狂澜!
cursor
Captaincc16 小时前
“不是 Cursor 不够强,是 Claude Code 太猛了” !Claude 创始人详解 Claude Code 如何改写编程方式
ai编程·claude·cursor
kk57916 小时前
保姆级教程:在无网络无显卡的Windows电脑的vscode本地部署deepseek
人工智能·windows·vscode·chatgpt
Sword9916 小时前
💡 前端福音!Trae × Blender-MCP终极融合,3D建模从此告别"手残党"
ai编程·three.js·trae
cpp加油站17 小时前
随着Trae支持更换插件源,我之前写的插件VSPlugin Helper差不多该退休了
ai编程·trae
cpp加油站17 小时前
拒绝切换IDE,10分钟让Trae编辑器化身C++神器,智能补全、编译调试一网打尽
c++·ai编程·trae