图像处理与计算机视觉--第七章-神经网络-单层感知器

文章目录

1.单层感知器原理介绍

python 复制代码
    1.单层感知器是感知器中最简单的一种,有单个神经元组成的单层感知器只能用于解决线性可分的二分性问题
    2.在空间中如果输入的数据是可分的,感知器相当于将输入的数据在空间中分为两类,已经证明,如果线性可分则算法一定收敛。
    3.单层感知器是指只有一层处理单元的感知器,其中输入层没有处理数据的能力,输入层有n个神经元结点,每个结点接受一个输入信号xi,输入层与输出层之前
      有权重w,将每个结点组成的输入矩阵和权值矩阵相乘,得到一个数,将这个数作为净输入传递给神经元细胞,再将净输入代入神经元细胞的激活函数中,并且在
      神经元中还有一个外部偏置b,激活函数在这里一般采用符号函数,然后输出一个数。

下图是一个简单的感知器模型图:

在输出层的每一个节点上接受来自输入层的加权和作为输出层的净输入如下所示:
n e t j ′ = ∑ i = 1 n w i j x i \mathrm{net}{j}^{\prime}=\sum{i=1}^{n}w_{ij}x_{i} netj′=i=1∑nwijxi

输出的值由激活函数决定:
y = s g n ( ∑ i = 1 N ω i x i + b ) y=\mathrm{sgn}\Bigg(\sum_{i=1}^N\omega_ix_i+b\Bigg) y=sgn(i=1∑Nωixi+b)

2.单层感知器算法流程

单层感知器算法的流程如下所示:

python 复制代码
算法注意事项:
1.L1为一类,L2为另一类,单层感知器只能解决二分类的一般问题。
2.beta表示学习率,它的值决定了误差对权值的影响大小,值不应该过大,以便为输入向量提供一个比较稳定的权值估计;值也不能过小,
3.收敛终止条件:
   1.当权值向量已经能正确实现分类时,算法就收敛终止。
   2.计算时收敛条件通常是:
         (1)理想值和计算得出的值得差小于一个提前的误差阈值。
         (2)权值两次变化的值小于一个提前设定的误差阈值。
         (3)设定一个最大迭代数M,达到这个值,即使没有完成,也必须收敛。

3.单层感知器算法实现

python 复制代码
"""
@单层感知器的实现
created by ZhongYan Zeng
2023/10/9/14/09
"""
#单层感知器
import numpy as np
import matplotlib.pyplot as plt
# 支持中文
plt.rcParams['font.sans-serif'] = ['SimHei'] # 用来正常显示中文标签
plt.rcParams['axes.unicode_minus'] = False # 用来正常显示负号
#2.更新函数
def update_weight(X,Y,W,beta,iteration):
    iteration=iteration+1
    y=np.dot(X,W)
    result_sgn=np.sign(y)
    w_delta=beta*((Y-result_sgn).dot(X))
    W=W+w_delta
    return W,iteration
#3.迭代求解过程
def sovle_iteration(X,d,w,beta,iteration,iteration_max):
    for i in range(iteration_max):
        w,iteration=update_weight(X,d,w,beta,iteration)
        print(w)
        print(iteration)
        result=np.sign(np.dot(X,w))
        if(result==d).all():
            print("完成")
            print("迭代次数:",iteration)
            break
    return w,iteration
def draw_picture(w,iteration):
    k=-w[1]/w[2]
    b=-w[0]/w[2]
    print("斜率k=",k)
    print("截距b=",b)
    print("线性表达式:y={:.2f}x+{:.2f}".format(k,b))
    k=round(k,2)
    b=round(b,2)
    #可视化绘图
    x=[2,4,5]
    y=[3,3,8]
    fun_x=np.linspace(0,9,100)
    fun_y=k*fun_x+b
    plt.plot(fun_x,fun_y,color='r',label='y=1.{}x+{}'.format(k,b))
    plt.scatter(x[0:2],y[0:2],color='b')
    plt.scatter(x[2],y[2],color='y')
    plt.xlim(0,9)
    plt.ylim(0,15)
    plt.legend()
    plt.title("单层感知器分类结果图")
    plt.show()

if __name__=='__main__':
    #1.定义参数和变量
    X=np.array([[1,2,3],[1,4,3],[1,5,8]])#第一项为偏置项1
    d=np.array([1,1,-1])#期望感知器分类结果
    beta=0.1#学习率为0.1
    iteration=0#迭代次数为0
    w=(np.random.random(3)-0.5)*2
    iteration_max=100
    w,iteration=sovle_iteration(X,d,w,beta,iteration,iteration_max)
    draw_picture(w,iteration)

4.单层感知器效果展示


5.参考文章与致谢

python 复制代码
本章内容的完成离不开大佬文章的启发和帮助,在这里列出名单,如果对于内容还有不懂的,可以移步对应的文章进行进一步的理解分析。
1.单层感知器以及python实现:https://blog.csdn.net/qq_42633819/article/details/81588084
如果大家这这篇blog中有什么不明白的可以去他的专栏里面看看,内容非常全面,应该能够有比较好的解答。
在文章的最后再次表达由衷的感谢!!
相关推荐
YRr YRr4 小时前
深度学习:神经网络中的损失函数的使用
人工智能·深度学习·神经网络
youcans_5 小时前
【微软:多模态基础模型】(5)多模态大模型:通过LLM训练
人工智能·计算机视觉·大模型·大语言模型·多模态
YRr YRr6 小时前
深度学习:神经网络的搭建
人工智能·深度学习·神经网络
威桑6 小时前
CMake + mingw + opencv
人工智能·opencv·计算机视觉
YRr YRr7 小时前
深度学习神经网络中的优化器的使用
人工智能·深度学习·神经网络
只怕自己不够好7 小时前
《OpenCV 图像基础操作全解析:从读取到像素处理与 ROI 应用》
人工智能·opencv·计算机视觉
幻风_huanfeng8 小时前
人工智能之数学基础:线性代数在人工智能中的地位
人工智能·深度学习·神经网络·线性代数·机器学习·自然语言处理
嵌入式大圣8 小时前
嵌入式系统与OpenCV
人工智能·opencv·计算机视觉
搏博9 小时前
神经网络问题之二:梯度爆炸(Gradient Explosion)
人工智能·深度学习·神经网络
搏博10 小时前
神经网络问题之:梯度不稳定
人工智能·深度学习·神经网络