机器学习 基础 笔记 1

train阶段就是正常的学习

validation是知道正确答案是啥,检查正确率

test是不知道正确答案是啥,看看有啥结果

训练的时候记得model.train

测试(后面两种都是)的时候要model.eval

(有些模型两种阶段做的事不一样)

测试的时候记得with torch.no_grad(),一来省算力,一来防止自己学起来了

save,load

数据处理

生成式的神经网络就是要网络生成一系列结果,让这个结果与已有的数据对比,确保他们相似度高,不会出现离谱的结果。用G代表生成网络,D代表鉴别器网络

其实就是gan(生成对抗网络)分为生成器与鉴别器。生成器会产生"假数据",鉴别器需要对比真假数据,看出他们是真是假(也就是看出他们的解空间的差异,李宏毅老师所讲的divergence)

"

这是一个生成器和判别器博弈的过程。生成器生成假数据,然后将生成的假数据和真数据都输入判别器,判别器要判断出哪些是真的哪些是假的。判别器第一次判别出来的肯定有很大的误差,然后我们根据误差来优化判别器。现在判别器水平提高了,生成器生成的数据很难再骗过判别器了,所以我们得反过来优化生成器,之后生成器水平提高了,然后反过来继续训练判别器,判别器水平又提高了,再反过来训练生成器,就这样循环往复,直到达到纳什均衡。

"

LG=H(1,D(G(z)))

这是生成网络的损失函数。z是随机输入的x,H()是判断二者距离,1代表真

可见生成网络的目标就是让D尽量以为自己是真的(与数据集相近的)

LD=H(1,D(x))+H(0,D(G(z)))

这是判别网络的损失函数,0代表假。D(x)是鉴别器对真实数据的结果。

可见生成网络要尽量做到看出真的,认出假的。可以发现这其实就是一个二元分类器的经典loss函数。

可以看到,在训练(更新)D的时候要练到底,保证找到最大的divergence(差别),确认了这个G最大有多大的问题后,再更新G,这个G就不能更新太多次了,因为G变化太大可能导致D难以辨别,对应的原来那个点可能就不是divergence最大的那个点了。如图:

相关推荐
lili-felicity3 分钟前
CANN性能调优与实战问题排查:从基础优化到排障工具落地
开发语言·人工智能
User_芊芊君子6 分钟前
HCCL高性能通信库编程指南:构建多卡并行训练系统
人工智能·游戏·ai·agent·测评
冻感糕人~6 分钟前
【珍藏必备】ReAct框架实战指南:从零开始构建AI智能体,让大模型学会思考与行动
java·前端·人工智能·react.js·大模型·就业·大模型学习
hopsky8 分钟前
openclaw AI 学会操作浏览器抓取数据
人工智能
慢半拍iii9 分钟前
对比源码解读:ops-nn中卷积算子的硬件加速实现原理
人工智能·深度学习·ai·cann
晚烛11 分钟前
CANN 赋能智慧医疗:构建合规、高效、可靠的医学影像 AI 推理系统
人工智能·flutter·零售
小白|11 分钟前
CANN在自动驾驶感知中的应用:构建低延迟、高可靠多传感器融合推理系统
人工智能·机器学习·自动驾驶
一枕眠秋雨>o<14 分钟前
深度解读 CANN ops-nn:昇腾 AI 神经网络算子库的核心引擎
人工智能·深度学习·神经网络
ringking12314 分钟前
autoware-1:安装环境cuda/cudnn/tensorRT库函数的判断
人工智能·算法·机器学习
●VON14 分钟前
CANN模型量化:从FP32到INT4的极致压缩与精度守护实战
人工智能