从深度学习模型的视角思考:为什么说人与人的差别大于人与猪的差别

以下内容仅为自己对深度学习模型的白话理解,若有误请理解并指出,感谢!

一、如何理解模型实现特征的"抽象"

Think!

请你把下面的三张图 <math xmlns="http://www.w3.org/1998/Math/MathML"> { x 1 , x 2 , x 3 } \{x_1,x_2,x_3\} </math>{x1,x2,x3},划分到类别 <math xmlns="http://www.w3.org/1998/Math/MathML"> { y 1 , y 2 } \{y_1,y_2\} </math>{y1,y2}里。

我想你应该是黑人问号脸:???, <math xmlns="http://www.w3.org/1998/Math/MathML"> { y 1 , y 2 } \{y_1,y_2\} </math>{y1,y2}是个啥都不和我说,连个图的划分标准都不告诉我,我tm咋给你分类?

别急,那我现在给你几个"训练"用例:

我想你通过经验已经猜到了,图的划分标准是"图形的颜色", <math xmlns="http://www.w3.org/1998/Math/MathML"> { y 1 = 绿色 , y 2 = 黄色 } \{y_1=绿色,y_2=黄色\} </math>{y1=绿色,y2=黄色},所以你猜测结果应该是:

那如果"训练"用例是这样的呢:

我想你又猜到了,图的划分标准是"图形和线是否连接", <math xmlns="http://www.w3.org/1998/Math/MathML"> { y 1 = 是 , y 2 = 否 } \{y_1=是,y_2=否\} </math>{y1=是,y2=否},所以你猜测结果应该是:

最后再来一次,给你的"训练"用例如果是这样呢:

这次思考下,图的划分标准和 <math xmlns="http://www.w3.org/1998/Math/MathML"> { y 1 , y 2 } \{y_1,y_2\} </math>{y1,y2}是啥?

答案来了:图的划分标准是"图形的形状", <math xmlns="http://www.w3.org/1998/Math/MathML"> { y 1 = 圆形 , y 2 = 方形 } \{y_1=圆形,y_2=方形\} </math>{y1=圆形,y2=方形},如果你猜对了,那么恭喜你,你现在是一个"可靠的模型"了。

Why?

现在让我们思考下:我们为什么会划分了?很简单,因为我们看到了"训练"样本。

这到底发生了什么,为什么看到了"训练"样本就会划分了?因为我们通过大量的"训练"样本,"猜到了"划分的标准,即规则。

深度学习的模型也是如此的,未训练的模型和一开始的我们一样,一脸懵逼,只能乱给答案。但是,当我们给了足够的训练样本,并告诉它每个样本对应的标签后,它逐渐学习到了"规则",于是可以做出判断了。

However!

不知道你有没有发现,从不同的维度,即 <math xmlns="http://www.w3.org/1998/Math/MathML"> { 图形的颜色 , 图形的形状 , 图形和线是否连接 } \{图形的颜色,图形的形状,图形和线是否连接\} </math>{图形的颜色,图形的形状,图形和线是否连接},你可以进行不同的判断。等等,你竟然从一张图里区分出了三个不同的维度,并且你还会进行各自维度的比较!!

So

所以本质上来说,你可以通过训练样本,根据不同 维度 "抽象"出不同的"特征",并且根据这些特征进行"规则"的学习。我想你已经理解深度学习模型的工作原理了。

二、从Embedding视角回归主线问题

什么是Embedding

先来看看谷歌的解释:

Embedding是一个相对低维的空间,可以将高维向量转换到其中。Embedding使得机器学习更容易在大规模的输入上进行,比如表示单词的稀疏向量。理想情况下,Embedding通过将语义相似的输入紧密地放置在Embedding空间中来捕获输入的一些语义。

啥啥啥,啥叫"将高维向量转换到其中"?其实就是维度的扩张啊!只不过我们直接告诉了模型,需要扩张到的维度有多少个。"语义"是啥东西?其实就是在样本在某个维度上的表现。例如刚刚的"图形的形状是圆形"。

回归主线问题

所以,思考一下,人与人的差别大于人与猪的差别,这句话是对是错?

  • 从物种的维度来看,是错的,毕竟人和猪有生殖隔离(应该吧..)。
  • 从思维的角度来看,"可能"是对的,某些人和另一些人思维上的不同,甚至真的大于人和猪的思维差别。

为什么要用"可能"?因为模型不可能也不应该知道"训练"样本之外的答案,它可能在"训练"样本之外表现的很好,但不会是标准答案!这也是为啥你会觉得ChatGPT有些答案回答得挺牛,但有些答案漏洞百出。

三、加餐:如何理解LSTM模型的作用

现在,我会给你一些用户的行为时序信息(按时间顺序排序的行为集合),请你观察这些行为在同一语义维度的表现。

可以发现,根据时序信息,我们一样可以抽取出不同的信息。例如,当时序信息足够多时,我们在 <math xmlns="http://www.w3.org/1998/Math/MathML"> x 3 x_3 </math>x3可以抽取"用户的行为存在周期性"的特点(但是在 <math xmlns="http://www.w3.org/1998/Math/MathML"> x 1 x_1 </math>x1和 <math xmlns="http://www.w3.org/1998/Math/MathML"> x 2 x_2 </math>x2并无法观察到这个),也就可以由此认为 <math xmlns="http://www.w3.org/1998/Math/MathML"> x 4 x_4 </math>x4的用户行为可能存在异常。

再想一下,我们通过什么判断周期性:行为点的相对位置。这个相对位置又是哪来的?对了,这就是模型的抽象能力

四、总结

如何理解深度学习模型:模型通过观察训练样本,根据不同 维度 "抽象"出不同的"特征",并且根据这些特征进行"规则"的学习,由此可以对新样本进行判断。

相关推荐
xiangzhihong88 分钟前
Amodal3R ,南洋理工推出的 3D 生成模型
人工智能·深度学习·计算机视觉
狂奔solar22 分钟前
diffusion-vas 提升遮挡区域的分割精度
人工智能·深度学习
资源大全免费分享35 分钟前
MacOS 的 AI Agent 新星,本地沙盒驱动,解锁 macOS 操作新体验!
人工智能·macos·策略模式
跳跳糖炒酸奶1 小时前
第四章、Isaacsim在GUI中构建机器人(2):组装一个简单的机器人
人工智能·python·算法·ubuntu·机器人
AI.NET 极客圈1 小时前
AI与.NET技术实操系列(四):使用 Semantic Kernel 和 DeepSeek 构建AI应用
人工智能·.net
Debroon1 小时前
应华为 AI 医疗军团之战,各方动态和反应
人工智能·华为
俊哥V1 小时前
阿里通义千问发布全模态开源大模型Qwen2.5-Omni-7B
人工智能·ai
果冻人工智能1 小时前
每一条广告都只为你而生: 用 人工智能 颠覆广告行业的下一步
人工智能
掘金安东尼1 小时前
GPT-4.5 被 73% 的人误认为人类,“坏了?!我成替身了!”
人工智能·程序员
掘金一周2 小时前
金石焕新程 >> 瓜分万元现金大奖征文活动即将回归 | 掘金一周 4.3
前端·人工智能·后端