[Machine Learning][Part 7]神经网络的基本组成结构

这里我们将探索神经元/单元和层的内部工作原理。特别是,与之前学习的回归/线性模型和逻辑模型进行比较。最后接介绍tensorflow以及如何利用tensorflow来实现这些模型。

神经网络和大脑的神经元工作原理类似,但是比大脑的工作原理要简单的多。大脑中神经元的工作原理如下图:inputs表示上一个神经元传递过来的信号,然后经过当前神经元的处理,当前神经元将处理后的信号传递给下一个神经元,这样基本的信号传递就完成了。

神经网络的结构

machine learning的神经网络结构类似于大脑的神经网络结构,下图中向量x为上一层的输入,包含三个蓝色圆圈的黑色方框是当前的处理层,向量a[1]为当前层的输出,并且问下一层的输入,向量a[2]为最终的输出结果。可以看到一个简单的神经网络由输入层处理层输出层组成,其中处理层中可以包含多个处理的"神经元",处理层也叫做隐藏层。

更复杂的神经网络包含多个处理层,如下图,包含两个处理层:

输入层

输入训练数据的作用

处理层

处理层中包含多个神经元,每一个神经元就是一个处理模型,比如说线性回归模型,逻辑回归模型或者sigmoid激活函数。

比如上面的处理层a[1]有3个神经元(unit表示神经元),那么layer_1中包含3个unit,并且都是sigmoid激活函数。输出层a[2]有一个神经元,那么layer_2中unit为1,模型为sigmoid激活函数

那么怎么将各层之间的输入与输出联系起来呢?Sequential会将所有的层按线性连接起来形成module,如下图

这种上一层的输出结果作为下一层的输入,并计算下一层的输出,直到计算到输出层为止,被叫做前向传播(forward)。 前向传播的一般实现为:

python 复制代码
import numpy as np


W = np.array([[1,-3,5]
              [2,4,-6]])
b = np.array([-1,1,2])
a_in = np.arry([-2,4])


def dense(a_in,W,b,g):
    units = W.shape[1]
    a_out = np.zeros(units)
    for j in range(units):
        w= W[:,j]
        z = np.dot(w,a_in) + b[j]
        a_out[j]=g(z)
    return a_out


def sequential(x):
    a1 = dense(x,W[1],b[1])
    a2 = dense(a1, W[2], b[2])
    a3 = dense(a2, W[3], b[1])
    a4 = dense(a3, W[4], b[1])
    f_x = a4
    return f_x
相关推荐
心无旁骛~5 分钟前
PIL与OpenCV图像读取的颜色格式陷阱:RGB vs BGR
人工智能·opencv·计算机视觉
程序员大雄学编程16 分钟前
「深度学习笔记1」深度学习全面解析:从基本概念到未来趋势
人工智能·笔记·深度学习
sensen_kiss27 分钟前
INT305 Machine Learning 机器学习 Pt.4
人工智能·机器学习
WWZZ202530 分钟前
快速上手大模型:机器学习1
人工智能·深度学习·机器学习·计算机视觉·机器人·slam
TwoAnts&DingJoy34 分钟前
数据分析-泊松分布
python·机器学习·数据挖掘·数据分析·统计学·泊松分布
沫儿笙1 小时前
川崎焊接机器人弧焊气体节约
人工智能·机器人
新知图书1 小时前
多模态大模型的应用场景
人工智能·大模型应用开发·大模型应用
Giser探索家1 小时前
遥感卫星升轨 / 降轨技术解析:对图像光照、对比度的影响及工程化应用
大数据·人工智能·算法·安全·计算机视觉·分类
Mr数据杨1 小时前
【ComfyUI】Animate单人物角色视频替换
人工智能·计算机视觉·音视频
lisw051 小时前
AI眼镜:作为人机交互新范式的感知延伸与智能融合终端
人工智能·人机交互·软件工程