机器学习 基础 笔记 1

train阶段就是正常的学习

validation是知道正确答案是啥,检查正确率

test是不知道正确答案是啥,看看有啥结果

训练的时候记得model.train

测试(后面两种都是)的时候要model.eval

(有些模型两种阶段做的事不一样)

测试的时候记得with torch.no_grad(),一来省算力,一来防止自己学起来了

save,load

数据处理

生成式的神经网络就是要网络生成一系列结果,让这个结果与已有的数据对比,确保他们相似度高,不会出现离谱的结果。用G代表生成网络,D代表鉴别器网络

其实就是gan(生成对抗网络)分为生成器与鉴别器。生成器会产生"假数据",鉴别器需要对比真假数据,看出他们是真是假(也就是看出他们的解空间的差异,李宏毅老师所讲的divergence)

"

这是一个生成器和判别器博弈的过程。生成器生成假数据,然后将生成的假数据和真数据都输入判别器,判别器要判断出哪些是真的哪些是假的。判别器第一次判别出来的肯定有很大的误差,然后我们根据误差来优化判别器。现在判别器水平提高了,生成器生成的数据很难再骗过判别器了,所以我们得反过来优化生成器,之后生成器水平提高了,然后反过来继续训练判别器,判别器水平又提高了,再反过来训练生成器,就这样循环往复,直到达到纳什均衡。

"

LG=H(1,D(G(z)))

这是生成网络的损失函数。z是随机输入的x,H()是判断二者距离,1代表真

可见生成网络的目标就是让D尽量以为自己是真的(与数据集相近的)

LD=H(1,D(x))+H(0,D(G(z)))

这是判别网络的损失函数,0代表假。D(x)是鉴别器对真实数据的结果。

可见生成网络要尽量做到看出真的,认出假的。可以发现这其实就是一个二元分类器的经典loss函数。

可以看到,在训练(更新)D的时候要练到底,保证找到最大的divergence(差别),确认了这个G最大有多大的问题后,再更新G,这个G就不能更新太多次了,因为G变化太大可能导致D难以辨别,对应的原来那个点可能就不是divergence最大的那个点了。如图:

相关推荐
China_Yanhy2 小时前
动手学大模型第一篇学习总结
人工智能
空间机器人2 小时前
自动驾驶 ADAS 器件选型:算力只是门票,系统才是生死线
人工智能·机器学习·自动驾驶
&&Citrus2 小时前
【CPN学习笔记(二)】Chap2 非分层颜色 Petri 网——从一个简单协议开始读懂 CPN
笔记·学习·php·cpn·petri网
C+++Python2 小时前
提示词、Agent、MCP、Skill 到底是什么?
人工智能
小松要进步2 小时前
机器学习1
人工智能·机器学习
泰恒2 小时前
openclaw近期怎么样了?
人工智能·深度学习·机器学习
HXQ_晴天2 小时前
Linux 磁盘清理 & 查看常用指令笔记
笔记
KaneLogger3 小时前
从传统笔记到 LLM 驱动的结构化 Wiki
人工智能·程序员·架构
tinygone3 小时前
OpenClaw之Memory配置成本地模式,Ubuntu+CUDA+cuDNN+llama.cpp
人工智能·ubuntu·llama
正在走向自律3 小时前
第二章-AIGC入门-AIGC工具全解析:技术控的效率神器,DeepSeek国产大模型的骄傲(8/36)
人工智能·chatgpt·aigc·可灵·deepseek·即梦·阿里通义千问