part 3神经网络的学习

损失函数

常见损失函数

MSE均方误差

多用于回归,1/2求导用

L2 loss对异常值敏感,遇到异常值会发生梯度爆炸(求导时平方会将小的变更小,大的变更大)

复制代码
# MSE y预测值,t真实值
# y,t n*1
def mean_squared_error(y,t):
    return np.sum((y-t)**2)/2

CEE交叉熵误差

下列代码输入y和t:

y(n*k):n个样本可能是k个类

t:有两种输入,若是(n*k)则是独热编码(one-hot)一行中除了最大概率为1,其他全为0

若是(n*1)则是顺序编码,存储每个样本对应的最大值概率的索引

复制代码
# 交叉熵误差CEE
def cross_entropy(y,t):
    # 若只有一个样本,将y转为二维
    if y.ndim==1:
        t=t.reshape(1,t.size)
        y=y.reshape(1,y.size)
    # 将t转化为顺序编码(类别标签)
    if t.size==y.size: # t.size是所有维度乘积,若y和t维度一样,说明t是独热编码表达
        t=t.argmax(axis=1) # 找出二维数组中跨列最大值对应的索引
    n=y.shape[0]
    '''
    y[np.arange(n),t]是花式索引
    他不是找所有行,所有t列的数据
    而是找[1,2,..,n]行分别对应的t=(1,6,8,7..)'列的n个元素
    t必须是一维n个数的索引数组
    y[np.arange(n),t]:n*1
    +1e-10 : 加一个微小误差,防止log计算=0
    '''
    return -np.sum(np.log(y[np.arange(n),t]+1e-10))

分类损失函数

二分类交叉熵损失函数

多分类交叉熵损失函数

回归损失函数

MAE

MSE

smooth L1

数值微分

数值微分求导

复制代码
# 数值微分求导
def numerical_diff(f,x):
    h=1e-4
    return (f(x+h)-f(x-h))/(2*h)

就是线性拟合

计算x点拟合切线

原函数y=0.01x^2+0.1x

复制代码
import numpy as np
import matplotlib.pyplot as plt
from common.gradient import numerical_diff
# 设原函数y=0.01x^2+0.1x
def f(x):
    return 0.01*x**2+0.1*x
# 切线方程函数,返回切线函数
def tangent_line(f,x):
    y=f(x)
    # 计算x处切线的斜率(利用数值微分计算x处导数)
    a=numerical_diff(f,x)
    b=y-a*x
    return lambda x:a*x+b
# 定义画图范围
x=np.arange(0.0,20.0,0.1)
y=f(x)
# 计算x=5处切线方程,f_line是匿名函数
f_line=tangent_line(f,x=5)
y_line=f_line(x)
plt.plot(x,y) # 原函数曲线
plt.plot(x,y_line) # 切线
plt.show()

运行结果:

计算梯度

复制代码
import numpy as np

# 数值微分求导
def numerical_diff(f,x):
    h=1e-4
    return (f(x+h)-f(x-h))/(2*h)

# 数值微分求梯度,传入的x是一个向量
def _numerical_gradient(f,x):
    h=1e-4
    grad=np.zeros_like(x)
    # 遍历x中的特征xi
    for i in range(x.size):
        temp=x[i]
        x[i]=temp+h
        fxh1=f(x) 
        x[i]=temp-h
        fxh2=f(x) # 传的是x[i],or f(x[i])
        # 利用中心差分公式计算偏导数
        grad[i]=(fxh1-fxh2)/(2*h)
        x[i]=temp
    return grad
# 传入X是一个矩阵
def numerical_gradient(f,X):
    # 判断维度
    if X.ndim==1:
        return _numerical_gradient(f,X)
    else:
        grad=np.zeros_like(X)
        # 遍历X中的每一行数据,分别求梯度
        for i,x in enumerate(X):
            grad[i]=_numerical_gradient(f,x) # 这里grad[i]就是一个向量
        return grad

神经网络的梯度计算

复制代码
import numpy as np
from common.functions import softmax,cross_entropy
from common.gradient import numerical_gradient
# 定义一个简单神经网络类
class SimpleNet:
    def __init__(self):
        #输入2,输出3
        self.W=np.random.randn(2,3)
    # 前向传播
    def forward(self,X):
        a=X@ self.W # 没写偏置值
        y=softmax(a)
        return y # 1*3
    # 计算损失值
    def loss(self,x,t): # t是真实y
        y=self.forward(x) # 预测y
        loss=cross_entropy(y,t) # 求y用到了self.W
        return loss
# 主程序
if __name__=='__main__' :
    # 1.定义数据
    x=np.array([0.6,0.9])
    t=np.array([0,0,1]) # 独热编码
    # 2.定义神经网络模型
    net=SimpleNet()
    # 3.计算梯度
    f=lambda w:net.loss(x,t)
    # 传入的f是运算逻辑,且lambda w: net.loss(x, t) 并没有使用传入的 w,
    # f真正参数是net.W
    gradw=numerical_gradient(f,net.W)
    print(gradw)

运行结果:

随机梯度下降法(SGD)

梯度下降法

相关推荐
Pilot-HJQ16 小时前
固定 Element UI 表格表头的方法(超简单)
vue.js·学习·css3·html5
乐迪信息16 小时前
乐迪信息:船体AI烟火检测,24小时火灾自动预警
人工智能·物联网·算法·目标检测·语音识别
且去填词16 小时前
DeepSeek :基于 AST 与 AI 的遗留系统“手术刀”式治理方案
人工智能·自动化·llm·ast·agent·策略模式·deepseek
llilian_1616 小时前
相位差测量仪 高精度相位计相位差测量仪的应用 相位计
大数据·人工智能·功能测试·单片机
云雾J视界16 小时前
从Boost的设计哲学到工业实践:解锁下一代AI中间件架构的密码
c++·人工智能·中间件·架构·stackoverflow·boost
saoys16 小时前
Opencv 学习笔记:图像绘制(直线 / 圆 / 椭圆 / 矩形 / 多边形 + 文字添加)
笔记·opencv·学习
君鼎16 小时前
计算机网络第四章:网络层学习总结
学习·计算机网络
bing.shao16 小时前
AI在电商上架图片领域的应用
开发语言·人工智能·golang
执笔论英雄16 小时前
【RL】中Token级策略梯度损失
人工智能·pytorch·深度学习
百家方案16 小时前
“十五五”智慧文旅解决方案:以科技为核心,开启沉浸体验与高效治理新篇章
大数据·人工智能·智慧文旅·智慧旅游