【单层感知器】花语神经网络的原理解析

神经网络感知器(Perceptron)是神经网络中最基础的单元,它的工作原理可以用一个通俗的比喻来解释。

假设有一个花园,花园里有各种各样的花,我们要通过花的特征来识别不同的花种。神经网络感知器就像是一个智能的花匠,它能够根据花的特征进行分类和识别。

感知器的输入就像是花的特征,比如颜色、形状、大小等等。这些特征被输入到感知器中,感知器会根据这些特征做出决策,判断这个花属于哪一类。

感知器内部有一组权重(weights)和偏置(bias),它们就像是花匠的经验和判断标准。权重决定了每个特征对最终决策的重要性,而偏置则是一个阈值,用来决定是否激活感知器。

当花的特征被输入到感知器中时,感知器会计算出一个加权和(weighted sum),即将每个特征与对应的权重相乘并相加,然后再加上偏置。如果这个加权和超过了某个阈值,感知器就会被激活,输出一个信号表示识别出了这个花种。

通过不断地调整权重和偏置,感知器可以逐渐学习到正确分类花的模式。这就像花匠在不断地观察和调整自己的判断标准一样。

当然,单个感知器的能力是有限的,它只能处理线性可分的问题。但是,当多个感知器组合在一起,形成一个多层的神经网络时,它们就能够处理更加复杂的问题,就像多个花匠合作一样,能够更准确地识别和分类各种各样的花种。

单层感知器原理代码

python 复制代码
# 导入所需的库
import numpy as np

# 定义单层感知器类
class Perceptron:
    def __init__(self, learning_rate=0.1, n_features=2):
        self.learning_rate = learning_rate
        self.weights = np.zeros(n_features)
        self.bias = 0
        self.activation_func = self._step_func
	#通过运算最终确定预测结果
    def predict(self, x):
        weighted_sum = np.dot(x, self.weights) + self.bias
        return self.activation_func(weighted_sum)
	#函数在x=0这一点实现了一个从0到1的阶跃,功能上是一个阶跃函数
    def _step_func(self, x):
        return 1 if x >= 0 else 0
	#通过学习训练,对self.weights和self.bias权重和偏置项进行数据刷新,提高模型预测效果
    def fit(self, X, y, epochs=100):
        for epoch in range(epochs):
            for idx, x in enumerate(X):
                prediction = self.predict(x)
                update = self.learning_rate * (y[idx] - prediction)
                self.weights += update * x
                self.bias += update

# 准备数据
# 假设有4个样本,每个样本有3个特征,对应的花类别为[0, 1, 0, 1]
X = np.array([[1, 2, 3], [2, 3, 4], [3, 4, 5], [4, 5, 6]])
y = np.array([0, 1, 0, 1])

# 创建单层感知器实例,n_features 参数用于指定输入特征的数量,它被设置为3,意味将接收3个特征输入。
perceptron = Perceptron(learning_rate=0.1, n_features=3)

# 训练感知器
perceptron.fit(X, y, epochs=100)

# 进行预测
new_flower = np.array([2, 4, 6])  # 一个新的花的特征
prediction = perceptron.predict(new_flower)
print("Prediction:", prediction)  # 输出预测结果

代码中的细节分析:

1、n_features=3 是一个在机器学习和数据处理中常见的参数设置,特别是在使用某些库(如scikit-learn)时。这里的n_features指的是数据集中特征的数量。

当我们说n_features=3时,意味着数据集中有两个特征。在二维空间中,这两个特征可以被视为x轴和y轴,数据点则分布在这个二维平面上。这种情况下的可视化相对简单,因为我们可以直接在平面上绘制数据点,每个点的位置由其两个特征的值确定。

2、perceptron = Perceptron(learning_rate=0.1, n_features=3)

这里的变量perceptron接收参数,存入下面的self.learning_rate,self.n_featrues中。

python 复制代码
class Perceptron:
    def __init__(self, learning_rate=0.1, n_features=3):
        self.learning_rate = learning_rate
        self.n_features = n_features

3、perceptron.fit(X, y, epochs=100)

perceptron.fit(X, y, epochs=100)是一个用于训练感知器模型的函数调用。通常情况下,这个函数会更新感知器模型的内部参数(如权重和偏置),以使得模型更好地拟合训练数据。

在Python中,使用类似scikit-learn这样的机器学习库时,fit方法通常不会直接返回训练结果。相反,它会更新模型对象本身的状态。这意味着训练后的感知器模型将以更新后的权重和偏置等参数的形式存储在perceptron对象中。

如果您想获取训练后的权重和偏置,可以查看感知器对象的相应属性。具体的属性名称可能会因不同的库或实现而有所不同。例如,在某些实现中,您可以通过perceptron.coef_来访问权重,通过perceptron.intercept_来访问偏置。

希望这个比喻能够帮助你更好地理解神经网络感知器的工作原理!

相关推荐
volcanical19 分钟前
Dataset Distillation with Attention Labels for Fine-tuning BERT
人工智能·深度学习·bert
L_cl19 分钟前
【NLP 17、NLP的基础——分词】
人工智能·自然语言处理
西西弗Sisyphus22 分钟前
大型语言模型(LLMs)演化树 Large Language Models
人工智能·语言模型·自然语言处理·大模型
车载诊断技术2 小时前
电子电气架构 --- 什么是EPS?
网络·人工智能·安全·架构·汽车·需求分析
KevinRay_2 小时前
Python超能力:高级技巧让你的代码飞起来
网络·人工智能·python·lambda表达式·列表推导式·python高级技巧
跃跃欲试-迪之2 小时前
animatediff 模型网盘分享
人工智能·stable diffusion
Captain823Jack3 小时前
nlp新词发现——浅析 TF·IDF
人工智能·python·深度学习·神经网络·算法·自然语言处理
被制作时长两年半的个人练习生3 小时前
【AscendC】ReduceSum中指定workLocal大小时如何计算
人工智能·算子开发·ascendc
Captain823Jack3 小时前
w04_nlp大模型训练·中文分词
人工智能·python·深度学习·神经网络·算法·自然语言处理·中文分词
Black_mario4 小时前
链原生 Web3 AI 网络 Chainbase 推出 AVS 主网, 拓展 EigenLayer AVS 应用场景
网络·人工智能·web3