01 TextRNN & FastText & TextCNN-04-训练要点,实验过程

TextRNN & FastText & TextCNN-03-模型总览,后

训练要点

RNN训练

得出来的y(m)(预测标签)是每一个分类的概率,比如是一个五分类,化成5个格子,每一个格子是概率,5个格子加起来是1

损失

有多任务怎么计算loss,通过一个线性的一个变换来将所有的这些loss累加到一起。

大M就是代表我们有多少任务,比如我们有4个数据集,M就等于4

λm是权重,4个任务的权重不一样

数据的选择

训练方法:

1.随机选择一项任务;

2.从该任务中随机选择一个训练样本;

3.根据基于梯度的优化

(paper 中使用 Adagradupdate rule)来更新参数;

4.重复 1-3 步。

微调

预训练

对于模型三来说,共享层可以用所有的任务数据(4个数据集)进行预训练。模型三就可以获得四个数据集的所有信息。

用无监督的方法去预训练一些信息。

实验设置和结果分析

实验结果和分析知识树

数据集

4个数据集

SST-1:5个情绪类别的电影影评,来自斯坦福情感数据库

SST-2:2分类电影影评,来自斯坦福数据库

SUBJ:主观性数据集,任务目的是将句子分为主观和客观

IMDB:2分类的电影影评,大多数评价为长句子

数据的对比

超参与训练

使用 word2vec在维基语料获得词向量字典规模约 500,000。词嵌入在训练过程中被微调以提高性能;其他参数在[-0.1,0.1]的范围随机采样,超参数将选择在验证集上性能最好的一组。对于没有验证集的数据集使用 10 折交叉验证。

特定任务和共享层的嵌入大小为 64。对于模型一,每个单词有两个嵌入,大小都为 64。
LSTM 的隐藏层大小为 50。初始学习率为0.1。参数的正则化权值为 10^-5.

相关推荐
LitchiCheng几秒前
Mujoco 机械臂 OMPL 进行 RRT 关节空间路径规划避障、绕障
开发语言·人工智能·python
三年呀3 分钟前
深入探索量子机器学习:原理、实践与未来趋势的全景剖析
人工智能·深度学习·机器学习·量子计算
阿杰学AI3 分钟前
AI核心知识22——大语言模型之重要参数Top-P(简洁且通俗易懂版)
人工智能·ai·语言模型·aigc·模型参数·top-p
腾讯云开发者3 分钟前
架构火花|35岁程序员该做些什么:留在国企vs切换赛道
人工智能
Christo34 分钟前
AAAI-2013《Spectral Rotation versus K-Means in Spectral Clustering》
人工智能·算法·机器学习·数据挖掘·kmeans
摘星编程5 分钟前
openGauss DataVec向量数据库集成:面向AI应用的相似性搜索与知识图谱存储
数据库·人工智能·知识图谱
qq_376766247 分钟前
机房U位资产管理系统的数据分析能力:如何让数据中心运维效率升级?
网络·人工智能
m0_571186608 分钟前
第二十五周周报
人工智能
bulingg9 分钟前
常见的特征工程:数值型、类别型特征处理;特征构造、选择、文本特征处理、缺失值处理
人工智能·机器学习
阿杰学AI10 分钟前
AI核心知识21——大语言模型之核心参数Temperature(简洁且通俗易懂版)
人工智能·ai·语言模型·aigc·temperature·大模型参数