一、深度学习硬件-CPU和GPU
芯片:Intel or AMD
内存:DDR4
显卡:nVidia
芯片可以和GPU与内存通信
GPU不能和内存通信
1. CPU
能算出每一秒能运算的浮点运算数(大概0.15左右)
1.1 提升CPU利用率
1.1.1 提升缓存
- 再计算a+b之前,需要准备数据(CPU可能计算的快,但是内存很慢)
- 主内存->L3->L2->L1->寄存器(进入寄存器才能开始运算,和主频一样,速度最快)
- L1访问延时:0.5ns
- L2访问延时:7ns
- 主内存访问延时:100ns
- 提升空间和时间的内存本地性(缓存效率更高)
- 时间:重用数据使得保持它们在缓存里
- 空间:按序读写数据使得可以预读取
1.1.2 提升并行
超线程:将一个CPU物理核分给两个超线程,但是对计算密集型的没用
- 高端CPU有几十个核
- 并行来利用所有核:超线程不一定提升性能,因为它们共享寄存器
例子:
2. GPU
能看到一个:xx TFLOPS(比CPU高很多)
显存会低一点点
2.1 提升GPU利用率
对于GPU来讲,一个大核包含很多小核,一个小核包含很多计算单元,一个计算单元可以开一个线程。虽然每个计算单元的计算速度可能比CPU慢,但是并行很强,总体看快。
- 并行
- 使用数千个线程(向量至少1000维)
- 内存本地性
- 缓存更小,架构更简单
- 少用控制语句
- 支持有限
- 同步开销很大
3. CPU vs GPU
本质区别:核的个数&带宽(限制峰值,每一次需要从主存里读东西) ,GPU的代价就是内存不能很大(太贵),控制流很弱(跳转)
3.1 CPU/GPU带宽
任务本质上还是在CPU上做的,CPU到GPU带宽不高,而且经常需要同步
因此开销很大,不要频繁在CPU核GPU之间传数据(一次传完):带宽限制,同步开销
3.2 更多的CPUs和GPUs
- CPU:AMD,ARM
- GPU:AMD,Intel,ARM,Qualcomm
3.3 CPU/GPU高性能计算编程
- CPU:C++或者任何高性能语言
- 编译器成熟
- GPU:
- Nvidia上用CUDA:编译器和驱动很成熟
- 其他用OpenCL:质量取决于硬件厂商
总结:
- CPU:可以处理通用计算,性能优化考虑数据读写效率和多线程
- GPU:使用更多的小核和更好的内存带宽,适合能大规模并行的计算任务
补充:
第31节QA
二、TPU和其他
第32节
三、单机多卡并行
第33节
四、多GPU训练实现
第34节
五、分布式训练
第35节
六、数据增广
1. 一般专注于图片
- 在已有的数据集上,增加数据多样性。
- 一般是在线生成。
- 常见:翻转(建筑物就不用反转了)、切割(在图像中切割一块(可以是随机高宽比、随机大小、随机位置),然后变形到固定形状(卷积神经网络的输入形状一般都是一样的))、颜色(改变色调、饱和度、明亮度(一般取0.5~1.5,即增加或减少50%))。
- 提供了多种数据增强方法:https://github.com/aleju/imgaug
- 从部署数据集可能有什么数据反推使用什么方法。
总结:
- 增加模型泛化性。
2. 代码实现
-
aug:图像增广的方法,有很多随机色温、色调、等等!
-
可以很多一起用:
-
scale:将图片扩大或缩小
-
就是将图像增广的方法执行多次(num_rows行num_cols列)
-
图片增广最后一般都会接一个totensor。
-
应用:
图片进行增广是一件不便宜的事,最好多开几个num_workers。
- 一般都可以防止过拟合!测试集的精度会更高~
- 训练时只有load时加上拟合函数:
补充:
- 数据足够多可以不再增广,但是泛化性不强还是得增广。一般正确增广都是有效的。
- CPU几个核决定了num_worker大小。CPU不能太弱,要不数据处理可能跟不上,起码得是8核以上。可以测试来确定。
- 异常检测,都可以进行重采样、数据增广。
- 测试一般不做数据增广。(也可以,例如图像大小,按比例保留短边切掉长边,变为想要的大小。一般只留中间的,也可以再取点别的地方的)实际应用不用,竞赛可以使用,因为预测成本增加了。
- 实验可以固定随即种子,gap一般都不会减少,总是会过拟合的。
- 因为是随机的,因此数据分布是不变的,只是多样性增加了(均值不变,方差变大了)。
- 图神经网络,训练难,但是强大。
- 增广是可以拼接图片的,但是label也需要拼接。
- 特定场景,需要针对特定场景单独采集数据,重新打标训练;也可以将不行的(分类错误)数据,重新label加入训练集再来训练。(可能叫主动学习~持续学习)
- 增广就是为了让训练集长得更像测试集。
- mix-up确实有用~具体为什么不知道(label叠加)
- torchvision和albumentation都可以
七、微调(迁移学习的一种)
- 可以说是对计算机视觉,深度学习最重要的技术。
- 首先标注一个数据集很贵!我们没有那么多的数据,想要训练好模型,可以先在大数据集上训练好,对于小数据集,简单学学就会了。
1. 网络架构
- 一个神经网络一般可以分成两块:
- 特征抽取:将原始像素变成容易线性分割的特征。
- 线性分类器:(softmax回归)来做分类。
- 微调:就是在源数据集(一般比较大)上已经训练好了一个模型,那么可以认为特征抽取那一块对于我们的目标数据集也可以使用(但是必须要和预训练好模型的是一样的架构,直接copy来权重即可),起码比随机好一点,但是线性分类器就不能直接使用了(随机初始化,反正这一层在最上面,loss直接就过来了,这样训练是比较快的)因为标号可能变了。然后根据自己的数据集稍微训练一下即可。使用在大数据集上预训练好的模型来初始化模型权重,完成精度的提升。预训练模型的质量很重要,需要在很大的模型上训练过。通常数度更快,精度更高。
2. 训练
-
是一个目标数据集上的正常训练任务,但是使用更强的正则化:
- 因为我们通常会使用更小的学习率(已经和最优解比较接近了,不需要特别长的学习率。微调对学习率不敏感,直接使用一个比较小的学习率就行了)。
- 使用更少的数据迭代(需要训练的epoch没有那么多了,训练太过很可能over fit)。
-
源数据集远复杂于目标数据(类别、数量、样本个数要百倍大于目标数据集),通常微调效果更好。没有特别优于目标数据集的不如自己从头开始训练。
3. 重用分类器权重
- 源数据集可能也有目标数据集中的部分标号。
- 这样线性分类器就可以使用预训练好的模型分类器中对应标号对应的向量(也可以重用其中的好几个类,还能再加上自己新建的类,但是只有重复的类能重用,而且只能手动提取权重。其余的无关标号的权重直接删除!)来做初始化。(实际用的不多)
- 没有的标号只能随机。
4. 固定一些层
- 神经网络通常学习有层次的特征表示:
- 低层次的特征更加通用 (与底层细节相关,理解数据,我们认为这是通用的)
- 高层次的特征则更跟数据及相关(更加语义化一些,与标号更相关)
- 可以固定底部一些层的参数,不参与更新(这样模型复杂度降低),可以认为是一种更强的正则。对于数据集很小时很有用。但是怎么样最好是需要调的,最极端的是其余固定住,只训练最后一个全连接层,另一个极端就是全部的层一起动。
5. 代码实现
(训练集测试集)进行了数据增广,注意如果预训练模型做了norm,微调前也需要做同样的norm。模型输入大小要一样。要是有数据增强也是需要一样的。
-
下模型:(下载时,下列参数为true,说明不仅下模型定义下下来,还有训练好的parameter也一起拿下来)下一行代码是拿出最后一层。
-
更改输出层:并对最后一层的weight随机初始化
-
如果param_group为true:将非最后一层的参数取出,其他层lr小,fc层lr大。
-
不适用预训练:从零开始训练。
补充:
- 数据不平衡(也可以理解成标号不平衡)问题对特征提取的影响相对较小,对越往上层的影响越大,尤其是分类器。
- 要找预训练模型在和所使用的数据集相似的源数据集(可以更大,种类更多,但是要相似,当然不是源数据集必须包含目标数据集哦)上训练的,要不相差太大可能还不如从头开始训练。
- 标号要找对应的字符串(label的名称字符串,还要注意语义匹配不同,数据集上叫的名字可能不同),因为标号肯定是按照顺序来的,没什么意义。
- 微调中的归一化很重要,可以认为是网络中的一块,是可以换成batchnoralize就不需要这个了,但是我们copy时是没有copy这一块的,因此需要我们手动弄过去,但是如果预训练模型中有,那就不需要我们代码中自己搞的normalize了(源数据集的训练结构也做了归一化)。
- normalize参数是从源数据集上算出来的,finetune需要更改normalization的参数为自己数据集的均值和方差。
- auto-gluon会加入微调的(使用微调一般不会让模型变差,可能不会变好,但是一般不会变差)。
- 常用的CV预训练模型有imagenet上预训练的resnet系列。
- 微调是需要重新搞一下label和对应标号关系的,可以看课后习题有讲解。
- 自己预训练一个分类模型是有用的,因为可以用到其他图像技术上,反正都需要抽取特征的。
八、竞赛-树叶分类结果
第38节,略
九、实战-图像分类kaggle比赛
o-gluon会加入微调的(使用微调一般不会让模型变差,可能不会变好,但是一般不会变差)。
- 常用的CV预训练模型有imagenet上预训练的resnet系列。
- 微调是需要重新搞一下label和对应标号关系的,可以看课后习题有讲解。
- 自己预训练一个分类模型是有用的,因为可以用到其他图像技术上,反正都需要抽取特征的。
八、竞赛-树叶分类结果
第38节,略
九、实战-图像分类kaggle比赛
第39节40节,略