文章目录
-
- 前言
-
- 一、先搞懂本质:机器学习的终极目标,到底是什么?
- 二、欠拟合:你的模型,连"课本例题"都没搞懂
-
- [2.1 到底什么是欠拟合?](#2.1 到底什么是欠拟合?)
- [2.2 欠拟合的核心表现,一眼就能判断](#2.2 欠拟合的核心表现,一眼就能判断)
- [2.3 2026年最常见的欠拟合原因,别再踩坑了](#2.3 2026年最常见的欠拟合原因,别再踩坑了)
- 三、过拟合:你的模型,成了"死记硬背的题库学霸"
-
- [3.1 到底什么是过拟合?](#3.1 到底什么是过拟合?)
- [3.2 过拟合的核心表现,3秒就能判断](#3.2 过拟合的核心表现,3秒就能判断)
- [3.3 过拟合的本质:模型学了"不该学的噪声"](#3.3 过拟合的本质:模型学了“不该学的噪声”)
- 四、手把手教你:2026年最新版欠拟合解决指南,拿来就能用
-
- [4.1 第一优先级:提升模型容量,给模型"升级配置"](#4.1 第一优先级:提升模型容量,给模型“升级配置”)
- [4.2 第二优先级:增加有效特征,给模型"划重点"](#4.2 第二优先级:增加有效特征,给模型“划重点”)
- [4.3 第三优先级:延长训练时间,让模型"学够课时"](#4.3 第三优先级:延长训练时间,让模型“学够课时”)
- [4.4 第四优先级:降低正则化强度,给模型"松绑"](#4.4 第四优先级:降低正则化强度,给模型“松绑”)
- 五、90%的人都需要:2026年最全过拟合避坑&解决指南
-
- [5.1 第一优先级:扩充训练数据集,给模型"加题库"](#5.1 第一优先级:扩充训练数据集,给模型“加题库”)
- [5.2 第二优先级:增加正则化,给模型"定规矩,别抠细节"](#5.2 第二优先级:增加正则化,给模型“定规矩,别抠细节”)
- [5.3 第三优先级:降低模型复杂度,给模型"减负"](#5.3 第三优先级:降低模型复杂度,给模型“减负”)
- [5.4 第四优先级:清洗训练数据,给模型"去掉错题本"](#5.4 第四优先级:清洗训练数据,给模型“去掉错题本”)
- 六、小白必看:2026年最常见的5个拟合误区,别再踩坑了
- 七、最后说几句心里话
P.S. 目前国内还是很缺AI人才的,希望更多人能真正加入到AI行业,共同促进行业进步,增强我国的AI竞争力。想要系统学习AI知识的朋友可以看看我精心打磨的教程 http://blog.csdn.net/jiangjunshow,教程通俗易懂,高中生都能看懂,还有各种段子风趣幽默,从深度学习基础原理到各领域实战应用都有讲解,我22年的AI积累全在里面了。注意,教程仅限真正想入门AI的朋友,否则看看零散的博文就够了。
前言
很多刚入门AI、机器学习的朋友,大概率都遇到过这种离谱的情况:
对着教程敲了一下午代码,好不容易搭好神经网络,训练的时候看着准确率一路飙到99%,损失值跌到接近0,心里美滋滋,觉得自己马上就要跻身AI大神行列了。结果一上线,用真实用户的数据一测,准确率直接腰斩到50%,甚至还不如瞎蒙的准,当场傻眼。
还有的朋友更挫败,模型训了好几天,训练集准确率就没超过60%,怎么调参数都上不去,要么怀疑自己代码写错了,要么觉得模型太垃圾,甚至直接想放弃AI这条路。
我在AI领域摸爬滚打了二十多年,见过太多开发者,不管是刚入门的小白,还是有几年经验的老开发,90%的模型调优问题,归根到底,都逃不开两个核心问题:欠拟合 和过拟合。
这两个概念,说是机器学习、深度学习最基础、最核心的底层问题,一点都不夸张。不管你是做传统的机器学习分类回归,还是2026年当下最火的大模型微调、AI智能体开发、多模态模型训练、AI绘画LoRA调教,甚至是自动驾驶、量化交易的AI模型,只要你用机器学习,就永远绕不开这两个问题。
但我发现,很多传统教材一上来就甩一堆偏差-方差分解的公式,密密麻麻的数学推导,把小白直接看懵了,本来想搞懂问题,结果越看越糊涂。今天我就用大家一听就懂的段子和生活类比,把这两个概念讲得明明白白,再给你一套2026年最新的、拿来就能用的解决办法,看完你再也不会被拟合问题搞得头大。
一、先搞懂本质:机器学习的终极目标,到底是什么?
在讲欠拟合和过拟合之前,我必须先给大家掰扯清楚一个最核心的问题:我们训练机器学习模型,到底是为了什么?
很多小白会脱口而出:"那还用问?当然是让模型在训练集上准确率越高越好啊!"
大错特错!这就是90%的人踩坑的根源。
我给大家打个最通俗的比方:机器学习模型,就像一个要参加高考的学生。我们给模型的训练集,就是课本上的例题、平时刷的历年真题;我们给的验证集,就是高考前的模拟考试;而最终的测试集、线上真实场景的数据,就是最终的高考考场。
你说,我们培养一个学生,终极目标是让他把刷过的历年真题全背下来,每次做真题都能拿满分吗?当然不是!我们的终极目标,是让他能从刷过的题目里,总结出通用的解题思路和知识点,高考的时候遇到从来没见过的新题,也能做对,考上好大学。
机器学习也是一模一样的道理。我们训练模型,终极目标从来不是让它在训练集上拿满分,而是让它拥有强大的「泛化能力」------也就是从训练数据里,学到数据背后真正的通用规律,而不是死记硬背训练数据里的内容,最终在从来没见过的新数据上,也能给出准确的预测结果。
这个泛化能力,就是机器学习的灵魂。而欠拟合和过拟合,就是模型泛化能力差的两种最核心的表现。
2026年的今天,大模型都已经遍地开花了,很多人觉得,现在都用大模型了,还需要懂什么欠拟合过拟合吗?太需要了!我见过太多人,拿着开源的大模型,用自己的数据集微调,训练集上的对话对答如流,完美符合要求,结果一到用户手里,换个问法,模型就开始胡说八道,答非所问,本质上就是模型过拟合了,只学会了背你微调的那点数据,没学到通用的对话逻辑。
还有人用现在很火的小语言模型(SLM)做复杂的智能体开发,结果模型连基本的指令都理解不了,怎么调都没用,本质上就是模型容量不够,欠拟合了,根本学不会你给的复杂任务的规律。
所以说,不管AI技术发展到哪一步,只要还是基于机器学习的框架,欠拟合和过拟合,就是你必须吃透的基本功。
二、欠拟合:你的模型,连"课本例题"都没搞懂
先讲欠拟合,这个相对简单,也是很多新手刚入门最先遇到的问题。
2.1 到底什么是欠拟合?
还是用高考学生的类比:欠拟合的学生,就是那种上课根本没听懂,课本上的基础知识点都没学会,连课本上的例题都不会做,刷真题的时候,就算是做过好几遍的题,还是会做错。不管是做刷过的真题,还是做模拟题,分数都低得离谱。
对应到模型上,欠拟合,就是模型连训练数据里的基本规律都没学到,不管是在训练集上,还是在验证集上,表现都非常差,准确率极低,损失值极高,而且两者的差距非常小。
我再给大家举个更形象的例子,就像我们之前教程里讲的,教小孩子认猫。欠拟合是什么情况?你给小孩子看了几十张猫的图片,告诉他这是猫,结果他连你给他看过的这些猫的图片,都认不出来,你再给他拿新的猫的图片,他更认不出来了。因为他根本就没学会"猫到底长什么样"这个基本规律,连最基础的特征都没抓到。
再举个技术上的例子,比如你要做房价预测,影响房价的因素有面积、楼层、地段、学区、房龄这几个核心因素,结果你只拿"房龄"这一个特征,用线性回归模型去预测房价,那模型肯定是欠拟合的。因为房价根本不是只跟着房龄线性变化的,你给的特征太少,模型太简单,根本学不到房价变化的真实规律,不管是训练集还是测试集,预测的结果都差得十万八千里。
2.2 欠拟合的核心表现,一眼就能判断
很多小白不知道怎么判断自己的模型是不是欠拟合,其实非常简单,只要看两个指标,一眼就能看出来:
- 训练集性能极差:准确率远低于业务预期,损失值居高不下,不管怎么增加训练轮次,都很难降下来;
- 验证集性能和训练集几乎一致:验证集的准确率、损失值,和训练集非常接近,两者几乎没有差距,同样都很差。
简单说就是:两头都烂,差距很小,这就是典型的欠拟合。
2.3 2026年最常见的欠拟合原因,别再踩坑了
我总结了一下,现在大家做AI开发,最容易导致欠拟合的几个原因,全是高频踩坑点:
- 模型容量严重不足,用小学生解高考题
这是最核心的原因。模型太简单,层数太少、参数量太小,根本不足以拟合你要解决的任务的复杂规律。比如2026年很多人跟风用小语言模型,用个0.6B的SLM去做复杂的多轮对话、代码生成任务,模型的容量根本装不下这么复杂的规律,必然会欠拟合。就像你让一个小学生去做高考数学压轴题,他再怎么学,也不可能学会,因为他的知识储备根本不够。 - 有效特征太少,模型巧妇难为无米之炊
你给模型的输入特征,根本和你要预测的结果没什么关系,或者有效特征太少,模型根本找不到规律。比如你要预测用户会不会买你的产品,结果你只给了用户的"昵称长度"这一个特征,那模型就算再厉害,也不可能学会预测,必然欠拟合。 - 训练不充分,模型还没学会就下课了
很多新手训练模型,只训了几轮,看损失值没怎么降,就觉得模型不行,直接停了。其实很多时候,模型还没收敛,还没学到数据的基本规律,就被你提前终止训练了,自然会欠拟合。尤其是现在大模型微调,很多人只训1-2轮就停了,模型连你的数据都没看完一遍,怎么可能学会规律? - 正则化强度过高,直接把模型"绑死了"
正则化是用来防止过拟合的,很多新手不懂,上来就给模型加极强的L2正则化、Dropout比率设到0.8以上,结果直接把模型限制死了,连基本的规律都学不到,直接从"防止过拟合"变成了"导致欠拟合",本末倒置。
三、过拟合:你的模型,成了"死记硬背的题库学霸"
讲完欠拟合,我们来讲重点中的重点------过拟合。我可以这么说,2026年的今天,不管是传统机器学习,还是大模型微调、AI绘画训练,90%的模型效果问题,都是过拟合导致的。
3.1 到底什么是过拟合?
还是用高考学生的类比,过拟合的学生,就是那种典型的"死记硬背型学霸"。他把近20年的高考真题,连题干带选项带标点符号,全背下来了,只要是他刷过的题,看一眼题干的前两个字,就能立刻说出答案,每次做真题都能拿满分。但是,只要给他出一道从来没见过的新题,哪怕只是换了个数字,改了个题干的顺序,他就直接傻眼了,根本不会做。因为他根本没学会解题的通用思路,只是把刷过的题目全背下来了。
对应到模型上,过拟合,就是模型把训练集里的所有内容,包括数据里的噪声、随机的偶然特征,全给背下来了,在训练集上表现堪称完美,准确率接近100%,损失值接近0。但是一到没见过的验证集、测试集上,表现直接断崖式下跌,准确率暴跌,损失值飙升,和训练集的差距巨大。
还是用教小孩子认猫的例子,过拟合是什么情况?你给小孩子看的猫的图片,全都是在蓝色背景的沙发上拍的白猫,结果小孩子把"蓝色背景、沙发、白色"这些偶然的特征,当成了猫的核心特征。他能把你给他看过的这些图片,100%认出来是猫,但是你给他拿一张黑色背景上的橘猫图片,他就告诉你这不是猫,因为没有蓝色背景,不是白色的。他根本没学到猫的本质特征------两只耳朵、四条腿、胡须、猫的脸型这些,反而把训练集里的偶然噪声,当成了核心规律。
我再给大家举个2026年大家天天都能遇到的例子:AI绘画的LoRA训练。很多人训练自己的LoRA模型,训练了几百步,发现生成训练集里的人物,一模一样,还原度100%,觉得自己训练成功了。结果一到真实生成,换个场景、换个服装、换个角度,生成的人物直接崩了,脸歪嘴斜,根本不是想要的样子。这就是典型的过拟合,模型把训练集里的人物的角度、光线、服装全背下来了,根本没学到人物的核心面部特征,自然泛化不了。
还有大模型微调,很多人用几十条、几百条数据微调大模型,训练了几十轮,训练集里的指令,模型回答的完美无缺,结果用户换个问法,模型就答非所问,甚至开始胡说八道,这也是过拟合,模型只背下来了你给的那几百条指令的回答,没学会通用的指令遵循逻辑。
3.2 过拟合的核心表现,3秒就能判断
和欠拟合一样,过拟合的判断也非常简单,看两个指标就够了:
- 训练集性能拉满,堪称完美:训练集上的准确率极高,甚至接近100%,损失值一路降到接近0,而且随着训练轮次增加,还能继续变好;
- 验证集性能先升后降,和训练集出现巨大分叉:训练初期,验证集的性能会跟着训练集一起变好,但是到了某个节点之后,验证集的性能不再提升,反而开始持续下降,和训练集的差距越来越大,出现明显的"分叉"。
简单说就是:训练集封神,验证集拉胯,差距巨大,这就是典型的过拟合。
3.3 过拟合的本质:模型学了"不该学的噪声"
很多人会问,为什么会出现过拟合?本质上,是因为我们的训练数据,永远是真实世界里的一小部分样本,而且里面必然会包含一些和真实规律无关的噪声、偶然特征。
比如你要训练一个识别猫的模型,你的训练集里的猫的图片,可能刚好大部分都是在室内拍的,大部分都是白猫,大部分都有项圈,这些都是和"是不是猫"无关的偶然特征,也就是噪声。
而过拟合,就是模型的学习能力太强了,强到不仅学到了"猫的本质特征"这个真实规律,还把训练集里的这些偶然的噪声、无关特征,全都当成了规律给学进去了,甚至把噪声当成了核心判断依据。结果一到真实场景,没有这些噪声了,模型就直接不会判断了。
这里要给大家纠正一个误区:很多人觉得模型越复杂、参数量越大、学习能力越强,就越好。其实不是的,模型的学习能力太强,就很容易出现过拟合,就像一个记忆力超强的学生,很容易陷入死记硬背,而不是理解知识点。2026年的今天,大模型的参数量动辄几十上百亿,学习能力极强,所以微调的时候,稍微不注意,就会出现严重的过拟合,这也是为什么现在大模型微调,大家都在用LoRA、QLoRA这些轻量化微调方法,就是为了降低模型的学习能力,防止过拟合。
四、手把手教你:2026年最新版欠拟合解决指南,拿来就能用
讲完了什么是欠拟合,接下来给大家一套按优先级排序的解决办法,从上到下,先试最容易、最有效的,一步步来,保证能解决你的欠拟合问题。
4.1 第一优先级:提升模型容量,给模型"升级配置"
这是解决欠拟合最核心、最有效的办法,毕竟模型容量不够,再怎么调其他参数都没用。
- 如果你用的是传统神经网络:增加网络的层数,增加每一层的神经元数量,换用更复杂的网络结构(比如从MLP换成CNN、Transformer);
- 如果你用的是大模型/小语言模型:换用参数量更大、容量更强的底座模型,比如你用0.6B的SLM效果不好,就换成2B、7B的模型,给模型足够的容量去学习复杂规律;
- 如果你用的是传统机器学习算法:换用更复杂的算法,比如从线性回归换成多项式回归、随机森林、XGBoost,提升模型的拟合能力。
就像你让小学生解高考题不行,那就换个高中生、大学生来,自然就能解决了。
4.2 第二优先级:增加有效特征,给模型"划重点"
如果模型容量没问题,那就要看看你给的特征是不是太少了,是不是和任务无关。
- 做特征工程,挖掘更多和预测目标强相关的有效特征,比如做房价预测,除了房龄,还要加上面积、地段、学区、楼层、周边配套这些核心特征;
- 减少无用的特征,避免无关特征干扰模型学习;
- 对于图像、文本数据,用更强大的特征提取器,比如2026年现在主流的CLIP、BERT等预训练模型,提取更有效的特征,给模型更好的输入。
说白了,就是给模型足够多、足够有用的信息,它才能找到规律,巧妇难为无米之炊嘛。
4.3 第三优先级:延长训练时间,让模型"学够课时"
很多时候,欠拟合只是因为你训练的轮次太少了,模型还没收敛,还没学到基本规律。
- 增加训练的epoch(轮次),让模型把训练数据多学几遍,直到训练集的损失值稳定下来,不再下降;
- 调整优化器的学习率,很多时候学习率太高,模型一直在震荡,收敛不了,把学习率调低一点,让模型能慢慢学到规律;
- 对于大模型微调,不要只训1-2轮就停了,根据你的数据集大小,适当增加训练轮次,让模型充分学习你的数据规律。
就像学生上课,只上了半节课,知识点都没讲完,肯定学不会,让他把课上完,自然就能听懂了。
4.4 第四优先级:降低正则化强度,给模型"松绑"
如果你之前给模型加了很强的正则化,那就要把正则化强度降下来,甚至暂时关掉,先让模型把基本规律学到手。
- 降低L1、L2正则化的权重衰减系数;
- 降低Dropout的比率,比如从0.8降到0.2、0.1,甚至训练初期直接关掉Dropout;
- 去掉其他限制模型学习能力的正则化手段,先让模型能拟合训练数据,再考虑防止过拟合的问题。
这就像你给学生绑着手脚上课,他肯定学不好,先把绳子解开,让他能正常学习,再说其他的。
五、90%的人都需要:2026年最全过拟合避坑&解决指南
过拟合是大家最常遇到的问题,也是最难调的,我给大家整理了一套按优先级排序的解决办法,从最有效、成本最低的开始,一步步来,保证能解决你的过拟合问题。
5.1 第一优先级:扩充训练数据集,给模型"加题库"
这是解决过拟合最根本、最有效的办法,没有之一。
过拟合的核心原因之一,就是训练数据太少了,模型见的题型太少了,只能死记硬背。你给它足够多、足够全面的训练数据,覆盖尽可能多的场景,模型自然就能从里面学到通用的规律,而不是死记硬背少量数据的噪声。
- 收集更多真实场景的训练数据,扩充数据集的规模和覆盖范围;
- 用数据增强技术,在不收集新数据的情况下,扩充数据集。2026年现在有非常成熟的数据增强方案:
- 图像数据:翻转、裁剪、旋转、缩放、加噪声、调整亮度对比度,甚至用AI生成新的样本;
- 文本数据:同义替换、回译、随机插入删除、句式改写,还有现在大模型生成的高质量合成数据;
- 大模型微调:扩充指令数据集,增加不同问法、不同场景的指令,让模型见更多的表达方式,而不是只背少数几条指令。
就像学生高考,只刷10套真题肯定不够,要刷几十上百套题,见遍了各种题型,才能总结出通用的解题思路,遇到新题也不怕。
5.2 第二优先级:增加正则化,给模型"定规矩,别抠细节"
正则化,就是专门用来防止过拟合的,核心作用就是限制模型的学习能力,不让它把所有特征都学进去,强迫它只关注最核心、最通用的规律,而不是那些偶然的噪声。2026年最常用的正则化手段,有这几个,拿来就能用:
- L2正则化(权重衰减)
这是最常用的正则化手段,核心就是给模型的权重参数加一个惩罚项,不让某个权重的数值变得太大,避免模型把某个偶然特征当成核心判断依据。现在不管是PyTorch、TensorFlow,还是大模型微调框架,都能一键设置权重衰减系数,一般设置在1e-4到1e-2之间,就能有效防止过拟合。 - Dropout
这个是神经网络里最常用的正则化手段,简单说就是训练的时候,随机让一部分神经元暂时失效,不参与计算,这样模型就不会过度依赖某几个神经元,也就不会死记硬背训练数据里的噪声。一般Dropout比率设置在0.2-0.5之间,大模型微调的时候,也可以通过调整注意力层的Dropout来防止过拟合。 - 早停(Early Stopping)
这个是2026年大家训练模型必用的手段,没有之一,操作简单,效果拉满。核心逻辑就是:训练的时候,实时监控验证集的性能,当验证集的性能连续多个轮次不再提升,甚至开始下降的时候,就立刻停止训练,不让模型继续学下去,避免它开始死记硬背训练数据里的噪声。
就像学生刷题,刷到模拟考分数不再涨了,就别再刷了,再刷就只会背题了,反而会影响高考发挥。现在所有的训练框架,都有现成的早停工具,几行代码就能加上,强烈建议所有训练都加上这个。
5.3 第三优先级:降低模型复杂度,给模型"减负"
如果你的模型太复杂,参数量太大,学习能力太强,就算加了正则化,还是很容易过拟合,这时候就要给模型减负,降低模型的复杂度。
- 传统神经网络:减少网络的层数,减少每一层的神经元数量,简化网络结构;
- 大模型微调:用更轻量化的微调方法,比如LoRA,调低LoRA的秩(rank),比如从128降到32、16,减少可训练的参数量,限制模型的学习能力,避免过拟合;
- 传统机器学习算法:简化模型,比如从深度随机森林换成简单的随机森林,减少树的深度,降低模型的复杂度。
说白了,就是别用大炮打蚊子,你要解决的是个简单的分类任务,就别用几十亿参数的大模型,不然很容易过拟合。
5.4 第四优先级:清洗训练数据,给模型"去掉错题本"
很多时候,过拟合是因为你的训练数据里有太多的噪声、错误数据、重复数据,模型把这些错误的内容也学进去了,自然泛化能力差。
- 清洗训练数据集,去掉错误的、标注不准的、重复的样本;
- 去掉训练集里的异常值,避免模型把异常值当成规律学进去;
- 保证训练集、验证集、测试集的数据分布一致,避免数据泄露,比如不要把验证集的数据放到训练集里,不然你看到的验证集效果都是假的,一到线上就过拟合。
就像学生刷题,刷的题里有很多错题、答案错的题,他把这些错题也背下来了,考试的时候自然考不好。
六、小白必看:2026年最常见的5个拟合误区,别再踩坑了
我在AI领域深耕了二十多年,见过太多开发者,不管是新手还是老鸟,都容易踩这几个拟合的误区,今天一次性给大家讲清楚,避免大家再走弯路。
误区1:只看训练集准确率,觉得训练集分高就是好模型
这是新手最容易犯的错误,训练的时候看着训练集准确率一路飙到99%,就觉得自己的模型天下第一了,结果一上线直接拉胯。记住,训练集的准确率,只是模型的"记忆力",验证集、测试集的准确率,才是模型的"真正能力",也就是泛化能力。永远不要只看训练集的性能,一定要看训练集和验证集的差距。
误区2:盲目堆模型层数,觉得模型越深越复杂越好
很多新手觉得,模型层数越多,参数量越大,效果就越好,结果堆了几十层网络,训练集上效果拉满,验证集上直接崩了,严重过拟合。记住,模型的复杂度,一定要和你的任务难度、数据集规模匹配。数据集只有几千条,就别用几十亿参数的大模型,不然必然过拟合。
误区3:把测试集当验证集用,导致数据泄露
很多人不懂,把测试集的数据拿来调参数,调完之后发现测试集效果很好,结果一上线就拉胯。这就是典型的数据泄露,相当于你提前拿到了高考的试卷,提前背了答案,当然能考高分,但是到了真实场景,没有答案了,自然就不行了。记住,验证集是用来调参数的,测试集只能用一次,就是模型最终定型之后,测一次最终效果,绝对不能用测试集调参数。
误区4:正则化乱加,欠拟合了还在加正则化
很多新手听说正则化能防止过拟合,就上来给模型加极强的正则化,结果模型连训练集都拟合不了,欠拟合了,还在加正则化,觉得是正则化加的不够。记住,正则化是用来防止过拟合的,只有当模型出现过拟合的时候,才需要加正则化,欠拟合的时候加正则化,只会雪上加霜。
误区5:训练数据不划分,全拿来训练
很多新手,把所有收集到的数据,全放到训练集里训练,根本不划分验证集和测试集,训练完了根本不知道模型是过拟合还是欠拟合,只能上线之后看效果,结果一上线就出问题。记住,不管你的数据集多小,一定要划分训练集、验证集,一般是7:3或者8:2的比例,只有这样,你才能实时监控模型的拟合情况,及时调整。
七、最后说几句心里话
其实,欠拟合和过拟合,本质上就是机器学习里最核心的"偏差-方差权衡"。欠拟合,就是模型的偏差太高,根本没学到规律;过拟合,就是模型的方差太高,太容易受训练数据里的噪声影响。我们调优模型的过程,本质上就是在偏差和方差之间,找到一个最优的平衡点,让模型既有足够的能力学到真实规律,又不会死记硬背训练数据里的噪声。
很多人觉得,现在AI技术发展这么快,大模型都这么强了,这些基础的东西不用学了。但我搞了二十多年AI,见过太多所谓的"AI大神",连欠拟合过拟合都搞不懂,调参全靠瞎蒙,遇到问题根本不知道从哪下手。AI这个行业,从来都不是靠堆参数、堆算力就能做好的,真正的核心,永远是这些最基础的原理。
不管你是刚入门AI的小白,还是有几年经验的开发者,把这些基础原理吃透了,不管AI技术发展到哪一步,你都能跟上节奏,永远不会被淘汰。
P.S. 目前国内还是很缺AI人才的,希望更多人能真正加入到AI行业,共同促进行业进步,增强我国的AI竞争力。想要系统学习AI知识的朋友可以看看我精心打磨的教程 http://blog.csdn.net/jiangjunshow,教程通俗易懂,高中生都能看懂,还有各种段子风趣幽默,从深度学习基础原理到各领域实战应用都有讲解,我22年的AI积累全在里面了。注意,教程仅限真正想入门AI的朋友,否则看看零散的博文就够了。