神经网络(一) --- 神经元

神经细胞

网络神经,宛如大脑的脉络,是AI技术的核心组成部分。而神经元,则像是大脑的基本单元,承载着信息的传递与处理。在AI的世界里,它们共同构建了智能的基石。尽管许多人在日常生活中频繁使用AI技术,但对于其背后的原理和结构却往往一知半解。因此,本系列文章将如一位耐心的导师,引导你逐步揭开AI技术的神秘面纱,从认识其基本概念开始,逐步深入到理解和掌握。为了让故事流畅展开,让我们随机抽取一张猩猩的图片作为探索的起点。(这张图片的主角,我暂且将其命名为"凯撒",人猿崛起的重要角色。)

我们之所以能一眼看出照片是只猩猩,属于动物类别,是因为我们大脑神经细胞中存有类似的"记忆"。大量类似的神经细胞相互作用,能让我们清楚地识别出图片的内容。在下"神笔马良"附体,画出了神经细胞结构。

  • <math xmlns="http://www.w3.org/1998/Math/MathML"> x 1 、 x 2 、 x i 、 x n x_{1}、x_{2}、x_{i}、x_{n} </math>x1、x2、xi、xn代表其他神经细胞。
  • 蓝色的圆球状是神经细胞体。 <math xmlns="http://www.w3.org/1998/Math/MathML"> θ \theta </math>θ尚且理解成细胞体内的一个"过滤器" 吧,主要是用来影响细胞的"反应" <math xmlns="http://www.w3.org/1998/Math/MathML"> y y </math>y 。
  • <math xmlns="http://www.w3.org/1998/Math/MathML"> w w </math>w 代表树突,是神经细胞用来接收周围神经细胞产生"反应"的信息(相当于y)的通道 (尚且这么理解,稍后会对w作详细的介绍)
  • <math xmlns="http://www.w3.org/1998/Math/MathML"> y y </math>y 代表当前神经细胞"反应"。

图片信号经过神经细胞 <math xmlns="http://www.w3.org/1998/Math/MathML"> x 1 、 x 2 、 x i 、 x n x_{1}、x_{2}、x_{i}、x_{n} </math>x1、x2、xi、xn细胞接收后会发出"反应"信号,这些信号经过 <math xmlns="http://www.w3.org/1998/Math/MathML"> ω 1 、 ω 2 、 ω i 、 ω n \omega_{1}、\omega_{2}、\omega_{i}、\omega_{n} </math>ω1、ω2、ωi、ωn的处理后传递给了蓝色神经细胞,蓝色细胞接收输入信号后发出了"反应"信号 <math xmlns="http://www.w3.org/1998/Math/MathML"> y y </math>y,然后继续影响其他的神经细胞。大量的神经细胞相互作用,最终某些神经细胞得出图片的内容。

请记住上述所讲到的神经细胞的结构以及图片的处理流程,接下来我们将在计算机中实现!!!

小贴士: 站在生物学的角度,上述的结构以及理论看似是胡说八道,实际上确实如此。但是对于理解下文却起着至关重要的作用。我们可以抛开医学理论,暂时相信上述理论。

神经元

计算机虽然没有细胞,但是我们可以使用数学描述 出一个神经细胞。为了区分生物学中的细胞,我们对此称之为神经元。

小贴士: 如果您还未获取到小学毕业证,那么接下来的部分可能并不适合您。还请出门右转掘金社区搜索小学数学课。

<math xmlns="http://www.w3.org/1998/Math/MathML"> y = a x + b y = ax+b </math>y=ax+b这个函数应该再熟悉不过了。如果我们将 <math xmlns="http://www.w3.org/1998/Math/MathML"> a x + b ax+b </math>ax+b看成一个神经细胞,如下图:

小贴士: 这里为什么要用 <math xmlns="http://www.w3.org/1998/Math/MathML"> y = a x + b y=ax+b </math>y=ax+b并不是因为真实的业务场景使用的是此函数,只是单纯的大家都认识这个函数而已。稍后我们会接触一些常见的函数来代替 <math xmlns="http://www.w3.org/1998/Math/MathML"> a x + b ax+b </math>ax+b。为了更好的描述此版本的神经元,暂且我们叫它 "第一个版本的神经元"。

上图是我们自创的神经元,虽然看起来很简单,其实一点也不复杂。在不讨论的实际效果的前提下,此神经元的结果优点在于足够的简单。但是缺点也很明显,

  • 只能接受一个输入参数。然而"小男孩1995的神经细胞"可以接收多个输入。
  • <math xmlns="http://www.w3.org/1998/Math/MathML"> x x </math>x的输入没有经过任何的操作直接传递给了神经元,然而"小男孩1995的神经细胞"经过了不同的 <math xmlns="http://www.w3.org/1998/Math/MathML"> ω \omega </math>ω处理后在传递给神经元

如何修改成接受多个输入 <math xmlns="http://www.w3.org/1998/Math/MathML"> x x </math>x,那么神经元内的函数 <math xmlns="http://www.w3.org/1998/Math/MathML"> a x + b ax+b </math>ax+b则不能在使用,因为不知道写什么,所以暂时先空着。那么再次修改神经元结构如下图:

  • <math xmlns="http://www.w3.org/1998/Math/MathML"> x 1 、 x 2 、 x i 、 x n x_{1}、x_{2}、x_{i}、x_{n} </math>x1、x2、xi、xn与以前一样可以当作其他的神经元,也可以当作其他神经元的输出。
  • <math xmlns="http://www.w3.org/1998/Math/MathML"> w 1 、 w 2 、 w i 、 w n w_{1}、w_{2}、w_{i}、w_{n} </math>w1、w2、wi、wn之前所讲的是神经细胞接收其他神经细胞"反应"的通道。在这里表示接收其他神经元输出的链接权重。(这里可以简单的理解成,权重越大代表输入对输出 <math xmlns="http://www.w3.org/1998/Math/MathML"> y y </math>y的影响越大)
  • <math xmlns="http://www.w3.org/1998/Math/MathML"> θ \theta </math>θ之前所讲的是神经细胞的"过滤器",在这里表示是一个阈值(可以简单的理解成一个数字)。主要的作用就是当前神经元的输入越接近 <math xmlns="http://www.w3.org/1998/Math/MathML"> θ \theta </math>θ则是一种结果,越疏远 <math xmlns="http://www.w3.org/1998/Math/MathML"> θ \theta </math>θ这是另一种结果。
  • 上一版本的神经元函数为 <math xmlns="http://www.w3.org/1998/Math/MathML"> y = a x + b y=ax+b </math>y=ax+b(只能接收一个输入),为了接收更多的输入,将函数更换为 <math xmlns="http://www.w3.org/1998/Math/MathML"> ∑ i = 1 n w i x i − θ \sum_{i=1}^{n}{w_{i}x_{i}}-\theta </math>∑i=1nwixi−θ, <math xmlns="http://www.w3.org/1998/Math/MathML"> ∑ i = 1 n w i x i \sum_{i=1}^{n}{w_{i}x_{i}} </math>∑i=1nwixi表示将输入 <math xmlns="http://www.w3.org/1998/Math/MathML"> x 1 、 x 2 、 x i 、 x n x_{1}、x_{2}、x_{i}、x_{n} </math>x1、x2、xi、xn按照对输出 <math xmlns="http://www.w3.org/1998/Math/MathML"> y y </math>y的影响程度 <math xmlns="http://www.w3.org/1998/Math/MathML"> w 1 、 w 2 、 w i 、 w n w_{1}、w_{2}、w_{i}、w_{n} </math>w1、w2、wi、wn累加起来。 <math xmlns="http://www.w3.org/1998/Math/MathML"> ∑ i = 1 n w i x i − θ \sum_{i=1}^{n}{w_{i}x_{i}}-\theta </math>∑i=1nwixi−θ表示对累加的结果与 <math xmlns="http://www.w3.org/1998/Math/MathML"> θ \theta </math>θ做了一个比较大小的操作。所以简单的说神经元的输出 <math xmlns="http://www.w3.org/1998/Math/MathML"> y y </math>y的值分为两种情况,如果 <math xmlns="http://www.w3.org/1998/Math/MathML"> ∑ i = 1 n w i x i ≥ θ \sum_{i=1}^{n}{w_{i}x_{i}} \geq \theta </math>∑i=1nwixi≥θ 是一种结果, <math xmlns="http://www.w3.org/1998/Math/MathML"> ∑ i = 1 n w i x i ≤ θ \sum_{i=1}^{n}{w_{i}x_{i}} \le \theta </math>∑i=1nwixi≤θ是另外一种结果。

小贴士: 现在的神经元已经可以接收多个输入,而且 <math xmlns="http://www.w3.org/1998/Math/MathML"> w w </math>w 和 <math xmlns="http://www.w3.org/1998/Math/MathML"> θ \theta </math>θ也已经运用到上述的神经元了。为此我决定给第二个版本的神经元起一个响亮的名字 "M-P神经元"。至于为什么要叫这个名字,请自行百度。

图像处理

有了M-P神经元,那么我们就可以去识别图片了。但是如何将图片输入给神经元呢?这里有两个问题需要解决。

  • M-P神经元中的 <math xmlns="http://www.w3.org/1998/Math/MathML"> x 1 、 x 2 、 x i 、 x n x_{1}、x_{2}、x_{i}、x_{n} </math>x1、x2、xi、xn应该张什么样子?
  • 一张图片怎样才能转换成 <math xmlns="http://www.w3.org/1998/Math/MathML"> x 1 、 x 2 、 x i 、 x n x_{1}、x_{2}、x_{i}、x_{n} </math>x1、x2、xi、xn的样子?

在 "机器的神经细胞-神经元"的章节中提到过,机器的神经细胞结构是采用数学的方式进行描述。所以神经元的输入 <math xmlns="http://www.w3.org/1998/Math/MathML"> x 1 、 x 2 、 x i 、 x n x_{1}、x_{2}、x_{i}、x_{n} </math>x1、x2、xi、xn理所应当是数字、向量、函数 等数学领域的概念。知道了神经元的输入,接下来就是解决如何将一张图片转换成数字、向量等数学表示。通常图像处理步骤如下:

  1. 图像预处理 :首先,需要对图像进行预处理,例如调整大小、裁剪、去噪等操作,以便将图像转换为标准大小和格式。
  2. 通道分离 :将 RGB 图像分离为三个单独的通道:红色(R)、绿色(G)和蓝色(B)。
  3. 向量化 :将每个通道中的像素值组成的矩阵转换为一维向量。这可以通过将每个通道的像素值按行或按列展开来实现。
  4. 合并通道 :将三个通道的向量组合成一个单一的特征向量。这可以简单地将三个通道的向量连接在一起,形成一个更长的向量,以便后续的分析和处理。
  5. 特征归一化 (可选):对特征向量进行归一化或标准化,以确保不同特征之间的尺度一致,提高模型的稳定性和性能。

你可能对上述的步骤存在很多疑问。比如什么是图片去噪,什么是RGB,什么是向量化等等一系列问题,这里先混个脸熟。

图像预处理

图像预处理是一个比较复杂的过程。由于篇幅有限,这里不对图片做任何的处理。就是用原图片!!!! 小男孩1995会在后续的博客文章中详细讲解如何对数据进行预处理。

通道分离

要想将图片数字化,我们首先需要简单了解一下图片像素的着色原理。很多人会有疑问,将图片数字化与像素有什么关系?其实将图片转换成数字的过程就是计算出每个像素颜色的值

对于我们工作中所接触到最多的图片格式有.png、.jpg等。他们属于位图,也称为点阵图像或栅格图像,是一种由像素组成的图像。

可以简单的理解成图片是由一个一个像素点组成,每个像素点有不同的颜色。这些带有颜色的像素点按照一定的顺序排列就能展现出我们看到的图片内容。

小学自然与科学课本上写着红绿蓝是三基色,大自然中绝大多数的颜色都可以通过三种颜色按照指定的比例混合而成。因此这里我们将三种颜色分别用三个字母来代替:R(red)G(green)B(blue)。

RGB三色是用8个数(00000000 ~ 11111111)表示颜色的值,故有256个级别。其实最高是0-255,0代表全白,255代表全黑。

三通道是指通过将一幅彩色图像分解成红、绿、蓝三个颜色通道,每个通道都包含了该颜色在原始图像中的亮度信息。这三个通道叠在一起便构成了一个完整的彩色图像。

例如凯撒图片中

  • 牙齿中某些像素点是纯白色,那么这点的RBG值表示为(255,255,255)。三个通道的值都是255。
  • 鼻头儿上某些像素点是纯黑色,那么这点的RBG值表示为(0,0,0)
  • 以此类推...

小贴士: 在数字图像处理中,图像通道是指一个图像中的颜色信息被分离为不同的颜色分量。常见的图像通道包括RGB通道、灰度通道、HSV通道等。 RGB通道是指将图像分离为红色、绿色和蓝色三个颜色通道,每个通道表示相应颜色的亮度。这种方式是最常>见的方式,它对于彩色图像的处理非常重要。

灰度通道是指将图像中的颜色信息转换为灰度亮度值,用单个通道表示整幅图像。这种方式比较适用于黑白图像或者在彩色图像中只需要考虑图像的亮度信息时。

HSV通道是指将图像中的颜色信息分离为色调(H)、饱和度(S)和亮度(V)三个通道。这种方式在对颜色变化的控制上比RGB更加直观,更适用于图像处理中的颜色调整。

在图像处理中,通常使用不同的通道来处理和操作图像。例如,使用灰度通道可以使图像变得更容易处理,>因为只需要考虑单个通道,而使用RGB通道可以使图像更容易在彩色显示设备上显示。在处理和分析图像时,>选择适当的通道和通道组合是非常重要的,可以帮助我们更好地理解和控制图像。

像素向量化

上述凯撒图片大小为374*346。横向有347个像素点,竖向有346个像素点。所以整个图片的像素点有 <math xmlns="http://www.w3.org/1998/Math/MathML"> 347 × 346 = 120 , 062 347 \times 346 = 120,062 </math>347×346=120,062 个。图片虽然只有16.7kb的大小,但是依然有120062个像素点组成。每个像素点又有三个通道组成,因此我们可以使用表格来表示像素点值:

像素 R G B
第1个像素点 255 255 255
第2个像素点 255 255 255
... ... ... ...
第120061个像素点 52 45 37
第120062个像素点 54 47 39

为了方便计算机计算,我们所有像素点的像素值按照顺序排列到一起即可得到如下的数列: 【255,255,255,255,255,255,...,...,...,52,45,37,54,47,39】 总共有 <math xmlns="http://www.w3.org/1998/Math/MathML"> 120062 × 3 = 360 , 186 120062 \times 3 = 360,186 </math>120062×3=360,186 个数字

python 复制代码
from PIL import Image


# 读取图像
image = Image.open('example_image.jpg')


# 将图像转换为 RGB 模式
image_rgb = image.convert('RGB')


# 获取图像的大小
width, height = image.size


# 创建一个空数组来存储像素的 RGB 值
pixel_values = []


# 遍历图像的每个像素,并将 RGB 值添加到数组中
for y in range(height):
    for x in range(width):
        r, g, b = image_rgb.getpixel((x, y))
        pixel_values.append((r, g, b))
# 将像素值的元组展开成一个扁平的列表
flattened_pixel_value = [value for pixel in pixel_value for value in pixel]
print(flattened_pixel_value)

归一化

上面我们将图片转化成一系列的像素值,每个像素值的范围都在【0,255】的范围内。图片中有120062个像素点,转换数字表示后就有360,186个数值。大家想一个场景:

如果这些数值中有百分之九十的数都接近255,百分之九的数都接近0,只有百分之一的数处于0~255中间的位置,会导致什么问题?

比如一个分类任务,如果模型计算的结果是接近1那么输入的图片是一只猩猩。如果任务输出的结果是256,那么输出入的图片是狗。

  • 如果前360,185个数相加后等于1,此时模型预测出来的结果倾向于猩猩。如果最后一个像素点的值是255,此时模型输出的结果就是一只狗。那么最后一个像素对整个预测结果发生了本质的变化。倒是模型不稳定。
  • 如果我们模型在计算的过程中,计算的数值变的无穷大,超出了计算机所接受的范围,那么360,186个像素点的值加起来很有可能会超出这个范围。

当然还有很多的问题会出现,所以我们需要将数据进行一定的处理防止一系列的问题发生。这里简单的罗列了比较官方的描述:

  1. 加速收敛: 在训练过程中,如果特征的尺度相差较大,那么损失函数的等高线可能会变得细长,导致梯度下降算法收敛缓慢。通过归一化特征,可以使损失函数的等高线更加接近圆形,加速梯度下降算法的收敛。
  2. 防止数值溢出: 在一些模型中,特征的数值大小会影响计算结果的稳定性。如果特征值过大,可能会导致数值计算过程中的溢出或不稳定性问题。通过将特征归一化到合适的范围,可以减少这种情况的发生。
  3. 增加模型的稳定性: 特征归一化可以使模型对特征值的变化更加鲁棒。即使输入特征的分布发生变化,归一化后的特征仍然保持一定的稳定性,有助于模型的泛化能力。
  4. 提高模型的精度: 特征归一化可以消除特征之间的量纲影响,使得不同特征对模型的影响更加均衡,从而提高模型的精度和性能。

为了实现加速收敛、防止数值溢出、增加模型的稳定性、提高模型的精度等一系列的问题,比较常规的做法有如下:

  • 最小-最大缩放(Min-Max Scaling): 最小-最大缩放是将特征缩放到一个指定的最小值和最大值之间的范围。具体公式为: <math xmlns="http://www.w3.org/1998/Math/MathML"> X n o r m = X − X m i n X m a x − X m i n X_{norm} = \frac{X - X_{min}}{X_{max} - X_{min}} </math>Xnorm=Xmax−XminX−Xmin,其中 <math xmlns="http://www.w3.org/1998/Math/MathML"> X m a x X_{max} </math>Xmax就是255, <math xmlns="http://www.w3.org/1998/Math/MathML"> X m i n X_{min} </math>Xmin就是0.

  • Z-score 标准化(Standardization): Z-score 标准化是将特征缩放到均值为 0、标准差为 1 的标准正态分布上。具体公式为: <math xmlns="http://www.w3.org/1998/Math/MathML"> X n o r m = X − μ σ X_{norm} = \frac{X - \mu}{\sigma} </math>Xnorm=σX−μ,其中 $ \mu

  • <math xmlns="http://www.w3.org/1998/Math/MathML"> 为均值, 为均值, </math>为均值, \sigma $为标准差。稍后会讲解。

  • Robust 标准化(Robust Scaling): Robust 标准化是一种对异常值更加稳健的归一化方法,它将特征缩放到一定的范围内,同时对异常值不敏感。具体公式为: <math xmlns="http://www.w3.org/1998/Math/MathML"> X n o r m = X − m e d i a n I Q R X_{norm} = \frac{X - median}{IQR} </math>Xnorm=IQRX−median,其中median为特征中位数,IQR为特征的四分位距。

  • Log Transform: 对特征取对数是一种常见的归一化方法,特别适用于右偏(正偏)分布的数据。取对数后,数据的分布将更加接近正态分布。

  • 其他方法: 还有一些其他的归一化方法,例如范数归一化(Normalization),将特征向量的范数缩放到单位长度;均值移除(Mean Removal),将特征的均值移动到零;分位数归一化等。

实现归一化的方式有很多,这里不在罗列,我们选择一个比较简单的方式 Z-score 标准化 来处理图片的数值。

我们将向量化后的向量拿出来: 【255,255,255,255,255,255,...,...,...,52,45,37,54,47,39】

为了更直观的体现计算过程,我们将上述向量中省略号去掉。 【255,255,255,255,255,255,52,45,37,54,47,39】。请大家记住,这里只是为了直观的体现计算过程,其实当前向量中有 360186 个数字。我们只是吧第一个、第二个以及第 360185个、第360186个像素拿出来举例!!!!。

Z-score标准化的具体公式为: <math xmlns="http://www.w3.org/1998/Math/MathML"> X n o r m = X − μ σ X_{norm} = \frac{X - \mu}{\sigma} </math>Xnorm=σX−μ,其中 <math xmlns="http://www.w3.org/1998/Math/MathML"> μ \mu </math>μ为均值, <math xmlns="http://www.w3.org/1998/Math/MathML"> σ \sigma </math>σ为标准差。

步骤 1:计算数据的均值 <math xmlns="http://www.w3.org/1998/Math/MathML"> μ \mu </math>μ和 标准差 <math xmlns="http://www.w3.org/1998/Math/MathML"> σ \sigma </math>σ 。

<math xmlns="http://www.w3.org/1998/Math/MathML"> μ = 1 n ∑ i = 1 n x i \mu = \frac{1}{n}\sum_{i=1}^{n}{x_{i}} </math>μ=n1∑i=1nxi 说白了 就是将所有的数值加起来然后除以数值的总个数。

<math xmlns="http://www.w3.org/1998/Math/MathML"> μ = 1 12 × ( 255 + 255 + 255 + 255 + 255 + 255 + 52 + 45 + 37 + 54 + 47 + 39 ) = 613 12 ≈ = 134.42 \mu = \frac{1}{12}\times\left( 255 + 255 + 255 + 255 + 255 + 255 + 52 + 45 + 37 + 54 + 47 + 39 \right) = \frac{613}{12} \approx = 134.42 </math>μ=121×(255+255+255+255+255+255+52+45+37+54+47+39)=12613≈=134.42

<math xmlns="http://www.w3.org/1998/Math/MathML"> σ = 1 n ∑ i = 1 n ( x i − μ ) 2 \sigma = \sqrt{\frac{1}{n}\sum_{i=1}^{n}{\left( x_{i} - \mu \right)^{2}}} </math>σ=n1∑i=1n(xi−μ)2 也就 是将每个数减去平均值的平方加载一起后在取平均值。最后对平均值开个根号。

<math xmlns="http://www.w3.org/1998/Math/MathML"> σ = 1 12 ( ( 255 − 134.42 ) 2 + ( 255 − 134.42 ) 2 + . . . + ( 39 − 134.42 ) 2 ) ≈ 121.26 \sigma = \sqrt{\frac{1}{12}\left( \left( 255-134.42 \right) ^{2} + \left( 255-134.42 \right) ^{2} + ... + \left( 39-134.42 \right) ^{2} \right)} \approx 121.26 </math>σ=121((255−134.42)2+(255−134.42)2+...+(39−134.42)2) ≈121.26

步骤 2:应用 Z-score 标准化公式 <math xmlns="http://www.w3.org/1998/Math/MathML"> z i = x i − μ σ z_{i} = \frac{x_{i} - \mu }{\sigma} </math>zi=σxi−μ

<math xmlns="http://www.w3.org/1998/Math/MathML"> z 1 = 255 − 134.42 121.26 ≈ 0.9937 z_{1} = \frac{255 - 134.42}{121.26} \approx 0.9937 </math>z1=121.26255−134.42≈0.9937

<math xmlns="http://www.w3.org/1998/Math/MathML"> z 2 = 255 − 134.42 121.26 ≈ 0.9937 z_{2} = \frac{255 - 134.42}{121.26} \approx 0.9937 </math>z2=121.26255−134.42≈0.9937

<math xmlns="http://www.w3.org/1998/Math/MathML"> ∙ ∙ ∙ \bullet \bullet \bullet </math>∙∙∙

<math xmlns="http://www.w3.org/1998/Math/MathML"> z 12 = 39 − 134.42 121.26 ≈ − 0.7869 z_{12} = \frac{39 - 134.42}{121.26} \approx -0.7869 </math>z12=121.2639−134.42≈−0.7869

因此,经过 Z-score 标准化后的数据为: [0.9937,0.9937,0.9937,0.9937,0.9937,0.9937,−1.0787,−1.1091,−1.1394,−1.0695,−1.0999,−1.1292]

至此我们得到了一张图片处理好的向量值。 [0.9937,0.9937,0.9937,0.9937,0.9937,0.9937,−1.0787,−1.1091,−1.1394,...,...,...,−1.0695,−1.0999,−1.1292]

python 复制代码
import  numpy as np
# 给定数据
data = [255, 255, 255, 255, 255, 255, 52, 45, 37, 54, 47, 39]
# 计算均值
mean = np.mean(data)
print("均值:", mean)
# 计算标准差
std_dev = np.std(data)
print("标准差:", std_dev)


# Z-score 标准化
z_score_values = []
for index,value in enumerate(data):
    z_score = (value - mean) / std_dev
    z_score_values.append(z_score)

文章后续会持续更新,敬请关注

相关推荐
灏瀚星空20 分钟前
地磁-惯性-视觉融合制导系统设计:现代空战导航的抗干扰解决方案
图像处理·人工智能·python·深度学习·算法·机器学习·信息与通信
Livan.Tang23 分钟前
LIO-SAM框架理解
人工智能·机器学习·slam
英英_42 分钟前
MATLAB中矩阵和数组的区别
机器学习·matlab·矩阵
健康胡1 小时前
仿射变换 与 透视变换
图像处理·人工智能·深度学习·opencv·算法·机器学习·计算机视觉
深度学习机器学习1 小时前
计算机视觉最不卷的方向:三维重建学习路线梳理
人工智能·深度学习·学习·yolo·目标检测·机器学习·计算机视觉
林泽毅2 小时前
PaddleNLP框架训练模型:使用SwanLab教程
人工智能·深度学习·机器学习·大模型·paddlepaddle·模型训练·swanlab
2501_915374352 小时前
数据清洗的艺术:如何为AI模型准备高质量数据集?
人工智能·机器学习
山北雨夜漫步2 小时前
机器学习 Day17 朴素贝叶斯算法-----概率论知识
人工智能·算法·机器学习
kovlistudio4 小时前
机器学习第十一讲:标准化 → 把厘米和公斤单位统一成标准值
人工智能·机器学习
戌崂石5 小时前
最优化方法Python计算:有约束优化应用——线性可分问题支持向量机
python·机器学习·支持向量机·最优化方法