机器学习基础概念(3)

小小考一下大家前两节的内容(坏笑)

我们如何评判一个机器学习模型的性能呢? 通常是判断它的泛化能力(对于未知数据的处理能力)

那么对于泛化能力是否有一个标准,比如在未知的1万个数据中,泛化能力 模型一90% > 模型二80% , 我们能说模型一就比模型二好吗? 根据NFL原则(没有绝对最好的),我们可以知道,刚刚那句话是不对的,比如对A来说,他需要前100个好就行,其他不重要,但B需要前10000个好,我们需要对他们进行定制不同的模型。

进入正题,我们手中没有没见过的数据(unseen instance),所以我们只能用已知的数据来调试模型参数,训练模型模型并模拟未知的数据来测试模型性能

调试模型就是用验证集来调试参数(这个在这篇文章的后面讲)。

训练模型就是用训练集。

测试模型就是用测试集。

这个时候就会出现两个事情:过拟合和欠拟合。

过拟合:模型对于训练数据的特征进行过度解析,导致出现不符合该问题一般特征的判断。

欠拟合:模型对于训练数据的特征解析不够,导致没有全面了解该问题一般特征,无法做出正确判断。

下图可以很好地表现

上面是直观表示,两条线,一个是真实训练效果,这个是我们训练出来出来对于未来数据的效果,实际上是先欠拟合,之后越来越好,再之后过拟合。表面训练效果就是对于训练集表现出来的表面效果,是看起来越来越好的,但是实际后面已经出现过拟合了。

之后我们需要探讨一下模型选择方面的事,有三个问题

评估方法--如何获得评测结果,获得什么样的评测结果

性能度量--如何评估性能优劣,怎么判断需要什么性能

比较检验--如何判断实质差别,用什么标准比较模型的差别

OK,这节就这样

相关推荐
爱可生开源社区21 小时前
DBA 的未来?八位行业先锋的年度圆桌讨论
人工智能·dba
叁两1 天前
用opencode打造全自动公众号写作流水线,AI 代笔太香了!
前端·人工智能·agent
前端付豪1 天前
LangChain记忆:通过Memory记住上次的对话细节
人工智能·python·langchain
strayCat232551 天前
Clawdbot 源码解读 7: 扩展机制
人工智能·开源
王鑫星1 天前
SWE-bench 首次突破 80%:Claude Opus 4.5 发布,Anthropic 的野心不止于写代码
人工智能
lnix1 天前
当“大龙虾”养在本地:我们离“反SaaS”的AI未来还有多远?
人工智能·aigc
泉城老铁1 天前
Dify知识库如何实现多关键词AND检索?
人工智能
阿星AI工作室1 天前
给openclaw龙虾造了间像素办公室!实时看它写代码、摸鱼、修bug、写日报,太可爱了吧!
前端·人工智能·设计模式
Halo咯咯1 天前
别再学写代码了,顶级工程师现在在学管理AI agent | 值得一读
人工智能