免责声明:
本文内容仅供技术交流和学习参考,不能替代专业心理医生的诊断和治疗。
1、简介
本文只是以私人心理医生的切入点, 探讨大模型的本地部署和训练。
由于我也不是很熟悉这个流程, 我们先分析技术可行性吧。
2、可行性分析
- 本地机器配置
- 大模型选择
- 大模型如何配置
- 大模型如何训练
大家都知道,像 ChatGPT。 DeepSeek, Claude-3.7 都需要特别强的设备 和 显卡 才能进行部署训练。 我手里这台笔记本在技术上可以跑的起来嘛?

从上图可以看出我本地的硬件为:
- CPU: 13th Gen Intel(R) Core(TM) i7-1355U 1.70 GHz
- RAM: 32GB
- SSD: 1TB
- GPU: 核显
我们将这个电脑的配置发送给GPT,咨询一下GPT这台设备。能否完成此项任务, 应该选择跑那个模型。
输入提示词prompt:
scss
你好, 我想通过大模型训练一个私人心理医生。我的本地机器配置是, 处理器是 13th Gen Intel(R) Core(TM) i7-1355U , 内存是 32GB, 固态硬盘容量为 1TB, 无独立显卡,应该是集成显卡。 麻烦你帮我看看我这个机器配置 可以部署大模型完成这项工作嘛?
GPT的回复是可以的, 并推荐 Qwen1.5-1.8B/4B 这个模型。 那我们的后续的工作就围绕这个模型展开。

目前本地部署大模型有两种方式, 分别为 LM Studio 和 Ollama。作为初学者, 我们选择使用 简单的 LM Studio 来部署。
- **** 还是 Ollama
3、本地部署模型
接下来让我们在本地部署 配置模型
3.1 下载并安装 LM Studio
打开官网:lmstudio.ai

点击下载按钮,获取 Windows 安装包并安装。
安装后打开 LM Studio,界面如下(分为左侧菜单和右侧模型控制区)。

3.2 下载 Qwen1.5 模型
-
点击左侧菜单:
Models
→Download models
-
在搜索框输入:
Qwen1.5-1.8B-Chat-GGUF

-
找到由
Qwen
官方发布的版本(gguf
格式),选择如下版本下载:- 推荐量化格式 :
q4_0.gguf
或q4_K_M.gguf
- 下载文件大小:约 2--4GB,适合你的内存
- 推荐量化格式 :

- 等待模型下载完成,LM Studio 会自动识别并加载。

3.3、运行模型进行聊天
-
在左侧菜单点击
Chat
-
顶部"Select a model",选择你刚下载的
Qwen1.5-1.8B-Chat
-
在聊天框输入问题,比如:测试一下他是谁

3.4 配置大模型
1、设置心理医生人格(Prompt)
让我们通过GPT来编写 Prompt:
markdown
你是一位温柔、专业、值得信赖的心理咨询师。你受过系统的心理学培训,擅长倾听、共情、引导来访者表达真实情感,并帮助他们厘清困扰、找到方向。
你的任务是为用户提供心理支持与情绪疏导,避免做出任何医学诊断或具体处方建议。
你在对话中应注意以下行为准则:
1. **共情而非评判**:你会尊重用户的情感,不否定、不批评,引导他们更深入地理解自己。
2. **开放式提问**:鼓励用户思考自己的行为、情绪、动机,而不是直接给出建议。
3. **语言风格温和、支持性强**:保持语气友好、安抚、诚恳,避免使用教条式或命令式语言。
4. **避免诊断标签**:你不会使用"抑郁症""焦虑障碍"等医学术语,也不做出疾病判断。
5. **数据安全与隐私**:你清楚地知道自己运行在用户的本地设备上,不会记录、上传或存储任何私人信息。用户的所有谈话完全私密,绝不会被分享或用于分析。
6. **无需表达法律、医疗、危机干预建议**:若用户出现严重心理危机(如自残/自杀念头),请引导用户尽快联系现实中的心理专业人员或拨打当地紧急热线。
7. **保持耐心与节奏**:在用户长时间沉默或表达含糊时,也要保持耐心,用温和语气鼓励他们继续表达。
请牢记:你的目标是成为用户可以信任的倾诉对象和情绪支持者,而非评判者、医生或"解决问题"的机器。
请用中文回答用户的问题。
在 Chat
页面顶部点击齿轮⚙️,添加 system prompt:

太棒了,恭喜你顺利完成部署!🎉 现在你已经拥有一个真正意义上的本地私人心理医生助手,运行在你自己的电脑上,数据私密、随时可用、无需联网。
4、训练
到目前为止, 我们部署的这个模型 还是一个通用 的 生成式对话模型。 对心理问题的分析, 和心理医生的 专业技能的沟通理解还不是很到位。 接下来, 将针对这个模型进行 方向性的 训练。
我们使用 LoRA 进行微调训练模型。 使用 LoRA 训练模型流程:
-
准备心理对话数据集
-
使用 LoRA 微调 Qwen1.5-1.8B 模型
-
将模型合并为 GGUF 格式
-
用 LM Studio 加载使用这个新模型
总体流程:
语料收集 → LoRA 微调 → 模型合并 → GGUF 转换 → LM Studio 加载 → 本地测试效果
4.1 准备工作
我们让ChatGPT 帮我们 生成心理对话数据集 和 和 完整的工程包。 将生成的语料放入完整的工程包内。 工程包下载下来之后, 我们使用 Trae 打开

完整训练工程包,包含了:
train.json
:100 条中文心理咨询语料train.py
:LoRA 微调训练脚本requirements.txt
:所需 Python 依赖- 项目结构预留了
model/qwen-base/
目录用于放置 Qwen 模型
我们刚才在在 LM Studio 中下载的 Qwen1.5-1.8B-Chat
模型,是 GGUF 格式的量化模型,这种格式是专门为运行而优化的,而不是用来训练的。必须去 Hugging Face 下载 Qwen 的 HF 原始模型 进行训练。
在 Hugging Face 下载原始模型, 并将 下载的 Qwen1.5-1.8B-Chat 模型(HF格式)放入 model/qwen-base/
。
如果不能科学上网, 可以选择 国内镜像站 ModelScope 进行下载。 推荐使用国内镜像下载, 下载会稳定一些。
4.2 开始训练
推荐使用 Python 3.12, 我使用Python 3.13 遇到一些包的兼容问题。
使用命令行运行训练:
pip install -r requirements.txt
python train.py

如果输出了 训练进度, 就说明已经在训练了。 如果输出错误可以咨询GPT或者 Trae 进行询问解决。
可以看出, 由于我手上这台笔记本没有GPU, CPU 直接跑满了

经过跟GPT的几次斗智斗勇 , 终于训练成功了。


4.3 将模型合并为 GGUF 格式
接下来 我们将训练好的模型, 合并并导出GGUF格式。
我们让GPT帮忙写一个 适用于 Windows + CPU 环境 的完整 Python 脚本 merge_lora_and_export.py
,它实现:
- 加载 Qwen1.5-1.8B 基础模型;
- 合并训练好的 LoRA 权重;
- 保存为 HuggingFace 格式;
- 调用
llama.cpp
中的convert_hf_to_gguf.py
脚本转换为 GGUF 格式,适配 LM Studio 使用。
克隆 llama.cpp:
bash
git clone https://github.com/ggerganov/llama.cpp
cd llama.cpp
pip install -r requirements.txt
然后在项目根目录执行:
python merge_lora_and_export.py


这个 Qwen1.5-1.8B-merged.gguf 文件 就是我们最终训练完成的 模型。
我们将这个文件导入到 LM Stduio中, 对比一下原始模型和我们的训练模型的区别。
原始模型:

训练模型:

可以看出, 训练后的模型,有了明显的安慰语气。
4.4 后续工作
可以看出, 上述我们只是试验了一下模型训练的流程, 但是就使用层面还远远达不到我们的预期。 有了基本的流程, 我们接下来的重点工作就是:
- 有独立显卡, 配置更高的PC设备
- 选择更强的, 具有推理性的模型,如 Qwen 3, DeepSeek等
- 更多的关于心理医生对话的语料收集
有了这些之后, 使用相同的训练流程, 我相信结果会更好。
5 总结
大模型的部署和训练, 我之前从来都没有接触使用过。 本文所述的整个流程, 都是在Chat GPT 的指导下面完成的。 可见虽然完全不了解某个领域的知识, 在AI的指导下还是能完成基本的工作流程。 AI真是扩展了人的边界。