【NLP实践】二、自训练数据实现中文文本分类并提供RestfulAPI服务

目录

前言

使用场景:随着用户使用量的增加,用户投诉量也日益增加,为了方便售后人员处理解决投诉问题以及售后问题的分类以及分析,所以利用NLP对投诉进行文本分类,分类为:用户抱怨、整机、异味、硬件、软件等等类型。随着系统的使用,标签矫正,可以使得模型在持续迭代日益精准。

预训练模型:
bert-base-chinese

谷歌开源的预训练模型,2018年至今,依然bert神一般的存在,性价比高、使用成本低,无脑套用就完事了。

前置条件

下载项目

shell 复制代码
git clone https://github.com/zpskt/MultiModelNLP.git
cd MultiModelNLP

创建环境

shell 复制代码
conda create -n sentiment --override-channels -c https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main/ python=3.12.11

安装依赖

shell 复制代码
conda activate sentiment
pip install -r src/bert/requirements.txt
#pip install -r src/bert/requirements.txt -i https://mirrors.aliyun.com/pypi/simple/

激活环境

shell 复制代码
conda activate sentiment

下载模型

如果你没有vpn或者任何代理服务器,那么访问huggingface.co会显示失败。此时可以使用国内的源:https://hf-mirror.com

配置环境变量

Linux/Mac

bash 复制代码
export HF_ENDPOINT=https://hf-mirror.com

你也可以添加到bash中

bash 复制代码
vim ~/.zshrc  # linux为 vim ~/.bashrc

Windows(这里没贴图,可以自行查阅添加环境变量)

我的电脑-》环境变量

加上HF_ENDPOINT并配置值 https://hf-mirror.com


此时你就可以往后走了,如果后面还不通,在执行这里的步骤

如果你还是下载不下来,那么就下载到本地

如果下载失败,那么就手动下载模型

shell 复制代码
wget -P model/bert-base-chinese https://hf-mirror.com/google-bert/bert-base-chinese/resolve/main/pytorch_model.bin

其他的我都下载完了,只需要下载一个bin就行了

准备训练数据

训练数据放置于data/train.csv,可以参照我的格式准备训练数据,需要你针对业务进行打标签处理,里面如果标签数据是中文,那么你就把labels中文映射一下即可。

使用

训练数据

开始训练

shell 复制代码
python train.py 

训练结束后,会在reslts文件下出现训练后的模型。

文件名 说明
[config.json](file://D:\zpskt\sentiment\model\bert-base-chinese\config.json) 模型配置文件,保存模型的超参数和架构配置信息
model.safetensors 模型权重文件,使用 safetensors 格式存储模型参数
optimizer.pt 优化器状态文件,保存优化器的参数和状态,用于恢复训练
rng_state.pth 随机数生成器状态文件,确保训练过程的可重现性
scheduler.pt 学习率调度器状态文件,保存学习率调整策略的状态
trainer_state.json 训练器状态文件,记录训练过程中的各种状态信息
training_args.bin 训练参数文件,保存训练时使用的命令行参数配置

该目录保存了训练过程中的模型检查点,包含模型权重、配置和训练状态等文件

用于模型的恢复训练或推理部署

当使用时,加载模型选择某个文件夹模型即可,要保证结构与我的一致。

main方法启动

可以看到我这里路径已经改为训练后的路径了。

shell 复制代码
cd src/bert
uvicorn api:app --reload

持续迭代

因为后续的代码是在公司完成,所以没有上传,而且较为简单,所以省略了。

流程就是,每次纠正标签后,都将纠正后的标签数据整理到一个csv然后利用原来已经训练完的模型再接着训练得出新的即可。

相关推荐
MobotStone12 小时前
数字沟通之道
人工智能·算法
Together_CZ12 小时前
Cambrian-S: Towards Spatial Supersensing in Video——迈向视频中的空间超感知
人工智能·机器学习·音视频·spatial·cambrian-s·迈向视频中的空间超感知·supersensing
caiyueloveclamp13 小时前
【功能介绍05】ChatPPT好不好用?如何用?用户操作手册来啦!——【AI辅写+分享篇】
人工智能·powerpoint·ai生成ppt·aippt·免费aippt
Aileen_0v013 小时前
【Gemini3.0的国内use教程】
android·人工智能·算法·开源·mariadb
xiaogutou112113 小时前
5款软件,让歌唱比赛海报设计更简单
人工智能
后端小张13 小时前
智眼法盾:基于Rokid AR眼镜的合同条款智能审查系统开发全解析
人工智能·目标检测·计算机视觉·ai·语言模型·ar·硬件架构
dalalajjl13 小时前
每个Python开发者都应该试试知道创宇AiPy!工作效率提升500%的秘密武器
大数据·人工智能
wheeldown13 小时前
【Rokid+CXR-M】基于Rokid CXR-M SDK的博物馆AR导览系统开发全解析
c++·人工智能·ar
爱看科技13 小时前
AI智能计算竞赛“战火重燃”,谷歌/高通/微美全息构建AI全栈算力开启巅峰角逐新篇
人工智能
IT_陈寒13 小时前
Redis性能翻倍的5个冷门技巧,90%开发者都不知道第3个!
前端·人工智能·后端