什么是神经网络?

神经网络是模拟人脑复杂功能的计算模型。神经网络由互连的节点或神经元组成,它们处理数据并从中学习,从而支持机器学习中的模式识别和决策等任务。本文详细探讨了神经网络、神经网络的工作原理、架构等。
目录

  • 神经网络的演变
  • 什么是神经网络?
  • 神经网络的工作原理是什么?
  • 学习神经网络
  • 神经网络的类型
  • 神经网络的简单实现

神经网络的演变

自 1940 年代以来,神经网络领域取得了许多值得注意的进步:

  • 1940 年代至 1950 年代:早期概念
    神经网络始于 McCulloch 和 Pitts 引入第一个人工神经元数学模型。但计算限制使进展变得困难。
  • 1960 年代至 1970 年代:感知器
    这个时代由 Rosenblatt 在感知器方面的工作定义。 感知器是单层网络,其适用性仅限于可以单独线性解决的问题。
  • 1980 年代:反向传播和联结主义
    Rumelhart、Hinton 和 Williams 发明的反向传播方法使多层网络训练成为可能。由于强调通过互连节点进行学习,联结主义获得了吸引力。
  • 1990 年代:繁荣与寒冬
    随着神经网络在图像识别、金融和其他领域的应用而蓬勃发展。然而,由于高昂的计算成本和夸大的期望,神经网络研究确实经历了一个"冬天"。
  • 2000 年代:复兴和深度学习
    更大的数据集、创新的结构和增强的处理能力刺激了它的卷土重来。 深度学习通过利用多个层,在许多学科中显示出惊人的效果。
  • 2010 年代至今:深度学习占主导地位
    卷积神经网络 (CNN) 和递归神经网络 (RNN) 这两种深度学习架构主导了机器学习。游戏、图片识别和自然语言处理方面的创新证明了他们的强大功能。
  • 什么是神经网络?

神经网络从数据中提取识别特征,缺乏预编程的理解。网络组件包括神经元、连接、权重、偏差、传播函数和学习规则。神经元接收由阈值和激活函数控制的输入。连接涉及调节信息传输的权重和偏差。学习、调整权重和偏差分为三个阶段:输入计算、输出生成和迭代优化,以提高网络对各种任务的熟练程度。

这些包括:

  1. 神经网络由新环境模拟。
  2. 然后,作为此模拟的结果,神经网络的自由参数会发生变化。
  3. 然后,由于神经网络的自由参数发生了变化,因此以新的方式响应环境。

神经网络的重要性

神经网络识别模式、解决复杂难题和适应不断变化的环境的能力至关重要。他们从数据中学习的能力具有深远的影响,从彻底改变自然语言处理和自动驾驶汽车等技术,到自动化决策流程和提高众多行业的效率。人工智能的发展在很大程度上依赖于神经网络,神经网络也驱动创新并影响技术的发展方向。

神经网络的工作原理是什么?

让我们通过一个神经网络工作原理的示例来了解:

考虑使用用于电子邮件分类的神经网络。输入层采用电子邮件内容、发件人信息和主题等功能。这些输入乘以调整后的权重,将穿过隐藏层。通过训练,该网络学会了识别指示电子邮件是否为垃圾邮件的模式。输出层具有二进制激活函数,可预测电子邮件是否为垃圾邮件 (1) 或非垃圾邮件 (0)。随着网络通过反向传播迭代优化其权重,它变得擅长区分垃圾邮件和合法电子邮件,展示了神经网络在电子邮件筛选等实际应用中的实用性。

神经网络的工作原理

神经网络是模拟人脑功能某些特征的复杂系统。它由一个输入层、一个或多个隐藏层和一个由耦合的人工神经元层组成的输出层组成。基本过程的两个阶段称为反向传播前向传播。

前向传播
  • ****Input Layer:****输入层中的每个要素都由网络上的一个节点表示,该节点接收输入数据。
  • ****权重和连接:****每个神经元连接的权重表示连接的强度。在整个训练过程中,这些权重会发生变化。
  • ****隐藏层:****每个隐藏层神经元通过将输入乘以权重,将它们相加,然后通过激活函数传递它们来处理输入。通过这样做,引入了非线性,使网络能够识别复杂的模式。
  • ****输出:****通过重复该过程直到到达输出层来产生最终结果。
反向传播
  • 损失计算: 根据实际目标值评估网络的输出,并使用损失函数计算差异。对于回归问题,均方误差(MSE) 通常用作成本函数。
    损失功能:
  • ****Gradient Descent:****然后网络使用 Gradient Descent 来减少损失。为了降低不准确性,权重将根据损失相对于每个权重的导数进行更改。
  • **调整权重:**通过在整个网络中向后应用此迭代过程或反向传播,在每个连接处调整权重。
  • **训练:**在使用不同的数据样本进行训练时,前向传播、损失计算和反向传播的整个过程都是迭代完成的,使网络能够从数据中适应和学习模式。
  • **驱动函数:**模型非线性由修正线性单元 (ReLU) 或 sigmoid 等激活函数引入。他们决定是否 "触发" 神经元是基于整个加权输入。

学习神经网络

1. 通过监督学习学习

在监督式学习中,神经 网络由可以访问两个输入-输出对的教师指导。网络根据输入创建输出,而不考虑周围环境。通过将这些输出与教师已知的所需输出进行比较,生成误差信号。为了减少错误,网络的参数会迭代更改,并在性能达到可接受水平时停止。

2. 通过无监督学习进行学习

无监督式学习 中不存在等效输出变量。它的主要目标是理解传入数据的 (X) 底层结构。没有教练在场提供建议。相反,对数据模式和关系进行建模是预期的结果。回归和分类等词与监督学习有关,而无监督学习与聚类和关联有关。

3. 通过强化学习进行学习

通过与环境互动和以奖励或惩罚的形式提供反馈,网络获得了知识。找到一种随着时间的推移优化累积奖励的政策或策略是该网络的目标。这种经常用于游戏和决策应用程序。

神经网络的类型

可以使用种类型的神经网络。

  • **前馈神经网络:**前馈神经网络是一种简单的人工神经网络架构,其中数据沿单个方向从输入移动到输出。它有 input、hidden 和 output 层;没有反馈循环。其简单的架构使其适用于许多应用程序,例如回归和模式识别。
  • 多层感知器 MLP **):**MLP 是一种具有三层或更多层的前馈神经网络,包括一个输入层、一个或多个隐藏层和一个输出层。它使用非线性激活函数。
  • 卷积神经网络 CNN **):**卷积神经网络 (CNN) 是一种专为图像处理而设计的专用人工神经网络。它采用卷积层从输入图像中自动学习分层特征,从而实现有效的图像识别和分类。CNN 彻底改变了计算机视觉,在对象检测和图像分析等任务中发挥着关键作用。
  • 递归神经网络 RNN **):**一种用于顺序数据处理的人工神经网络类型称为递归神经网络 (RNN)。它适用于上下文依赖关系至关重要的应用程序,例如时间序列预测和自然语言处理,因为它利用反馈循环,使信息能够在网络中生存。
  • 长短期记忆 LSTM **):**LSTM 是一种 RNN,旨在克服训练 RNN 中的梯度消失问题。它使用存储单元和门选择性地读取、写入和擦除信息。

神经网络的简单实现

  • Python3 语言

|---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| import numpy as np # array of any amount of numbers. n = m X ``= np.array([[``1``, ``2``, ``3``], ``[``3``, ``4``, ``1``], ``[``2``, ``5``, ``3``]]) # multiplication y ``= np.array([[.``5``, .``3``, .``2``]]) # transpose of y y ``= y.T # sigma value sigm ``= 2 # find the delta delt ``= np.random.random((``3``, ``3``)) ``- 1 for j ``in range``(``100``): ``# find matrix 1. 100 layers. ``m1 ``= (y ``- (``1``/``(``1 + np.exp(``-``(np.dot((``1``/``(``1 + np.exp( ``-``(np.dot(X, sigm))))), delt))))))``*``((``1``/``( ``1 + np.exp(``-``(np.dot((``1``/``(``1 + np.exp( ``-``(np.dot(X, sigm))))), delt)))))``*``(``1``-``(``1``/``( ``1 + np.exp(``-``(np.dot((``1``/``(``1 + np.exp( ``-``(np.dot(X, sigm))))), delt))))))) ``# find matrix 2 ``m2 ``= m1.dot(delt.T) ``* ((``1``/``(``1 + np.exp(``-``(np.dot(X, sigm))))) ``* (``1``-``(``1``/``(``1 + np.exp(``-``(np.dot(X, sigm))))))) ``# find delta ``delt ``= delt ``+ (``1``/``(``1 + np.exp(``-``(np.dot(X, sigm))))).T.dot(m1) ``# find sigma ``sigm ``= sigm ``+ (X.T.dot(m2)) # print output from the matrix print``(``1``/``(``1 + np.exp(``-``(np.dot(X, sigm))))) |

输出:

复制代码
[[0.99999325 0.99999375 0.99999352]
 [0.99999988 0.99999989 0.99999988]
 [1.         1.         1.        ]]

神经网络的优势

神经网络因其许多优点而被广泛用于许多不同的应用程序:

  • ****适应性:****神经网络对于输入和输出之间联系复杂或定义不明确的活动非常有用,因为它们可以适应新情况并从数据中学习。
  • 模式识别: 他们在模式识别方面的熟练程度使他们在音频和图像识别、自然语言处理和其他复杂数据模式等任务中非常有效。
  • ****并行处理:****由于神经网络本质上能够进行并行处理,因此它们可以同时处理大量作业,从而加快并提高计算效率。
  • ****非线性:****神经网络能够凭借神经元中的非线性激活函数来建模和理解数据中的复杂关系,从而克服了线性模型的缺点。

神经网络的缺点

神经网络虽然功能强大,但并非没有缺点和困难:

  • ****计算强度:****大型神经网络训练可能是一个费力且计算要求高的过程,需要大量的计算能力。
  • ****黑盒性质:****作为"黑盒"模型,神经网络在重要的应用程序中会带来问题,因为很难理解它们是如何做出决策的。
  • ****过拟合:****过拟合是指神经网络将训练材料存入内存,而不是识别数据中的模式。尽管正则化方法有助于缓解这种情况,但问题仍然存在。
  • ****需要大型数据集:****为了实现高效训练,神经网络通常需要大型标记数据集;否则,它们的性能可能会因数据不完整或有偏差而受到影响。

常见问题 (FAQ)

1. 什么是神经网络?

神经网络是由处理信息的互连节点(神经元)组成的人工系统,以人脑的结构为模型。它用于从数据中提取模式的机器学习工作。

2. 神经网络是如何工作的?

连接的神经元层在神经网络中处理数据。该网络处理输入数据,在训练期间修改权重,并根据它发现的模式生成输出。

3. 神经网络架构的常见类型有哪些?

前馈神经网络、递归神经网络 (RNN)、卷积神经网络 (CNN) 和长短期记忆网络 (LSTM) 是常见架构的示例,每种架构都是为特定任务而设计的。

4. 神经网络中的监督学习和无监督学习有什么区别?

在监督式学习中,标记数据用于训练神经网络,以便它可以学习将输入映射到匹配的输出。无监督学习处理未标记的数据,并在数据中查找结构或模式****。****

5. 神经网络如何处理顺序数据?

递归神经网络 (RNN) 包含的反馈循环使它们能够处理顺序数据,并随着时间的推移捕获依赖关系和上下文。

相关推荐
源于花海34 分钟前
一文快速预览经典深度学习模型(二)——迁移学习、半监督学习、图神经网络(GNN)、联邦学习
深度学习·迁移学习·图神经网络·gnn·联邦学习·半监督学习
CV-King41 分钟前
旋转框目标检测自定义数据集训练测试流程
人工智能·目标检测·计算机视觉
无问社区1 小时前
无问社区-无问AI模型
人工智能·web安全·网络安全
Debroon1 小时前
AdaptFormer:用2%参数,实现视觉Transformer的高效迁移学习,性能超越全量微调(SSv2提升10%,HMDB51提升19%)
深度学习·transformer·迁移学习
Jacen.L1 小时前
探究音频丢字位置和丢字时间对pesq分数的影响
人工智能·语音识别
DashVector1 小时前
如何通过HTTP API插入或更新Doc
大数据·数据库·数据仓库·人工智能·http·数据库架构·向量检索
海棠AI实验室1 小时前
机器学习基础算法 (二)-逻辑回归
人工智能·python·机器学习
利哥AI实例探险1 小时前
建筑工地AI安全检测系统:YOLO11数据标注训练与PyQt5界面设计应用开发
人工智能·qt·安全
临渊羡鱼的猫1 小时前
基础优化方法
人工智能·深度学习·机器学习
吃个糖糖2 小时前
33 Opencv ShiTomasi角点检测
人工智能·opencv·计算机视觉