part 3神经网络的学习

损失函数

常见损失函数

MSE均方误差

多用于回归,1/2求导用

L2 loss对异常值敏感,遇到异常值会发生梯度爆炸(求导时平方会将小的变更小,大的变更大)

复制代码
# MSE y预测值,t真实值
# y,t n*1
def mean_squared_error(y,t):
    return np.sum((y-t)**2)/2

CEE交叉熵误差

下列代码输入y和t:

y(n*k):n个样本可能是k个类

t:有两种输入,若是(n*k)则是独热编码(one-hot)一行中除了最大概率为1,其他全为0

若是(n*1)则是顺序编码,存储每个样本对应的最大值概率的索引

复制代码
# 交叉熵误差CEE
def cross_entropy(y,t):
    # 若只有一个样本,将y转为二维
    if y.ndim==1:
        t=t.reshape(1,t.size)
        y=y.reshape(1,y.size)
    # 将t转化为顺序编码(类别标签)
    if t.size==y.size: # t.size是所有维度乘积,若y和t维度一样,说明t是独热编码表达
        t=t.argmax(axis=1) # 找出二维数组中跨列最大值对应的索引
    n=y.shape[0]
    '''
    y[np.arange(n),t]是花式索引
    他不是找所有行,所有t列的数据
    而是找[1,2,..,n]行分别对应的t=(1,6,8,7..)'列的n个元素
    t必须是一维n个数的索引数组
    y[np.arange(n),t]:n*1
    +1e-10 : 加一个微小误差,防止log计算=0
    '''
    return -np.sum(np.log(y[np.arange(n),t]+1e-10))

分类损失函数

二分类交叉熵损失函数

多分类交叉熵损失函数

回归损失函数

MAE

MSE

smooth L1

数值微分

数值微分求导

复制代码
# 数值微分求导
def numerical_diff(f,x):
    h=1e-4
    return (f(x+h)-f(x-h))/(2*h)

就是线性拟合

计算x点拟合切线

原函数y=0.01x^2+0.1x

复制代码
import numpy as np
import matplotlib.pyplot as plt
from common.gradient import numerical_diff
# 设原函数y=0.01x^2+0.1x
def f(x):
    return 0.01*x**2+0.1*x
# 切线方程函数,返回切线函数
def tangent_line(f,x):
    y=f(x)
    # 计算x处切线的斜率(利用数值微分计算x处导数)
    a=numerical_diff(f,x)
    b=y-a*x
    return lambda x:a*x+b
# 定义画图范围
x=np.arange(0.0,20.0,0.1)
y=f(x)
# 计算x=5处切线方程,f_line是匿名函数
f_line=tangent_line(f,x=5)
y_line=f_line(x)
plt.plot(x,y) # 原函数曲线
plt.plot(x,y_line) # 切线
plt.show()

运行结果:

计算梯度

复制代码
import numpy as np

# 数值微分求导
def numerical_diff(f,x):
    h=1e-4
    return (f(x+h)-f(x-h))/(2*h)

# 数值微分求梯度,传入的x是一个向量
def _numerical_gradient(f,x):
    h=1e-4
    grad=np.zeros_like(x)
    # 遍历x中的特征xi
    for i in range(x.size):
        temp=x[i]
        x[i]=temp+h
        fxh1=f(x) 
        x[i]=temp-h
        fxh2=f(x) # 传的是x[i],or f(x[i])
        # 利用中心差分公式计算偏导数
        grad[i]=(fxh1-fxh2)/(2*h)
        x[i]=temp
    return grad
# 传入X是一个矩阵
def numerical_gradient(f,X):
    # 判断维度
    if X.ndim==1:
        return _numerical_gradient(f,X)
    else:
        grad=np.zeros_like(X)
        # 遍历X中的每一行数据,分别求梯度
        for i,x in enumerate(X):
            grad[i]=_numerical_gradient(f,x) # 这里grad[i]就是一个向量
        return grad

神经网络的梯度计算

复制代码
import numpy as np
from common.functions import softmax,cross_entropy
from common.gradient import numerical_gradient
# 定义一个简单神经网络类
class SimpleNet:
    def __init__(self):
        #输入2,输出3
        self.W=np.random.randn(2,3)
    # 前向传播
    def forward(self,X):
        a=X@ self.W # 没写偏置值
        y=softmax(a)
        return y # 1*3
    # 计算损失值
    def loss(self,x,t): # t是真实y
        y=self.forward(x) # 预测y
        loss=cross_entropy(y,t) # 求y用到了self.W
        return loss
# 主程序
if __name__=='__main__' :
    # 1.定义数据
    x=np.array([0.6,0.9])
    t=np.array([0,0,1]) # 独热编码
    # 2.定义神经网络模型
    net=SimpleNet()
    # 3.计算梯度
    f=lambda w:net.loss(x,t)
    # 传入的f是运算逻辑,且lambda w: net.loss(x, t) 并没有使用传入的 w,
    # f真正参数是net.W
    gradw=numerical_gradient(f,net.W)
    print(gradw)

运行结果:

随机梯度下降法(SGD)

梯度下降法

相关推荐
core5122 小时前
【硬核测评】Gemini 3 编程能力全面进化:不仅仅是 Copilot,更是你的 AI 架构师
人工智能·编程·copilot
阿蒙Amon2 小时前
JavaScript学习笔记:10.集合
javascript·笔记·学习
jieshenai2 小时前
llamafactory SFT 从断点恢复训练
人工智能
微风企2 小时前
杭州上城区CID青年企业家创新学院启航!微风企助力AI建设与青年创业成长
人工智能
chataipaper0022 小时前
10款免费降ai率工具合集,轻松搞定论文降AIGC!【2025学姐亲测】
人工智能·深度学习·aigc·降ai·论文ai率
快撑死的鱼2 小时前
Llama-factory 详细学习笔记:第六章:DPO (直接偏好优化) 实战 (难点)
笔记·学习·llama
一见已难忘2 小时前
昇腾加持下的Llama 3.2:开源大模型推理性能1B英文原版与3B中文微调模型实测对比
人工智能·开源·llama·gitcode·昇腾
CV-杨帆2 小时前
使用LLaMA-Factory微调训练Qwen2-VL-7B/Qwen2.5-VL-7B/Qwen3-VL-2B与视觉大模型数据集制作流程与训练评估
人工智能
stjiejieto2 小时前
AI 生成内容(AIGC)版权归属引争议:创作者、平台、AI 公司,谁该拥有 “作品权”?
人工智能·aigc