part 3神经网络的学习

损失函数

常见损失函数

MSE均方误差

多用于回归,1/2求导用

L2 loss对异常值敏感,遇到异常值会发生梯度爆炸(求导时平方会将小的变更小,大的变更大)

复制代码
# MSE y预测值,t真实值
# y,t n*1
def mean_squared_error(y,t):
    return np.sum((y-t)**2)/2

CEE交叉熵误差

下列代码输入y和t:

y(n*k):n个样本可能是k个类

t:有两种输入,若是(n*k)则是独热编码(one-hot)一行中除了最大概率为1,其他全为0

若是(n*1)则是顺序编码,存储每个样本对应的最大值概率的索引

复制代码
# 交叉熵误差CEE
def cross_entropy(y,t):
    # 若只有一个样本,将y转为二维
    if y.ndim==1:
        t=t.reshape(1,t.size)
        y=y.reshape(1,y.size)
    # 将t转化为顺序编码(类别标签)
    if t.size==y.size: # t.size是所有维度乘积,若y和t维度一样,说明t是独热编码表达
        t=t.argmax(axis=1) # 找出二维数组中跨列最大值对应的索引
    n=y.shape[0]
    '''
    y[np.arange(n),t]是花式索引
    他不是找所有行,所有t列的数据
    而是找[1,2,..,n]行分别对应的t=(1,6,8,7..)'列的n个元素
    t必须是一维n个数的索引数组
    y[np.arange(n),t]:n*1
    +1e-10 : 加一个微小误差,防止log计算=0
    '''
    return -np.sum(np.log(y[np.arange(n),t]+1e-10))

分类损失函数

二分类交叉熵损失函数

多分类交叉熵损失函数

回归损失函数

MAE

MSE

smooth L1

数值微分

数值微分求导

复制代码
# 数值微分求导
def numerical_diff(f,x):
    h=1e-4
    return (f(x+h)-f(x-h))/(2*h)

就是线性拟合

计算x点拟合切线

原函数y=0.01x^2+0.1x

复制代码
import numpy as np
import matplotlib.pyplot as plt
from common.gradient import numerical_diff
# 设原函数y=0.01x^2+0.1x
def f(x):
    return 0.01*x**2+0.1*x
# 切线方程函数,返回切线函数
def tangent_line(f,x):
    y=f(x)
    # 计算x处切线的斜率(利用数值微分计算x处导数)
    a=numerical_diff(f,x)
    b=y-a*x
    return lambda x:a*x+b
# 定义画图范围
x=np.arange(0.0,20.0,0.1)
y=f(x)
# 计算x=5处切线方程,f_line是匿名函数
f_line=tangent_line(f,x=5)
y_line=f_line(x)
plt.plot(x,y) # 原函数曲线
plt.plot(x,y_line) # 切线
plt.show()

运行结果:

计算梯度

复制代码
import numpy as np

# 数值微分求导
def numerical_diff(f,x):
    h=1e-4
    return (f(x+h)-f(x-h))/(2*h)

# 数值微分求梯度,传入的x是一个向量
def _numerical_gradient(f,x):
    h=1e-4
    grad=np.zeros_like(x)
    # 遍历x中的特征xi
    for i in range(x.size):
        temp=x[i]
        x[i]=temp+h
        fxh1=f(x) 
        x[i]=temp-h
        fxh2=f(x) # 传的是x[i],or f(x[i])
        # 利用中心差分公式计算偏导数
        grad[i]=(fxh1-fxh2)/(2*h)
        x[i]=temp
    return grad
# 传入X是一个矩阵
def numerical_gradient(f,X):
    # 判断维度
    if X.ndim==1:
        return _numerical_gradient(f,X)
    else:
        grad=np.zeros_like(X)
        # 遍历X中的每一行数据,分别求梯度
        for i,x in enumerate(X):
            grad[i]=_numerical_gradient(f,x) # 这里grad[i]就是一个向量
        return grad

神经网络的梯度计算

复制代码
import numpy as np
from common.functions import softmax,cross_entropy
from common.gradient import numerical_gradient
# 定义一个简单神经网络类
class SimpleNet:
    def __init__(self):
        #输入2,输出3
        self.W=np.random.randn(2,3)
    # 前向传播
    def forward(self,X):
        a=X@ self.W # 没写偏置值
        y=softmax(a)
        return y # 1*3
    # 计算损失值
    def loss(self,x,t): # t是真实y
        y=self.forward(x) # 预测y
        loss=cross_entropy(y,t) # 求y用到了self.W
        return loss
# 主程序
if __name__=='__main__' :
    # 1.定义数据
    x=np.array([0.6,0.9])
    t=np.array([0,0,1]) # 独热编码
    # 2.定义神经网络模型
    net=SimpleNet()
    # 3.计算梯度
    f=lambda w:net.loss(x,t)
    # 传入的f是运算逻辑,且lambda w: net.loss(x, t) 并没有使用传入的 w,
    # f真正参数是net.W
    gradw=numerical_gradient(f,net.W)
    print(gradw)

运行结果:

随机梯度下降法(SGD)

梯度下降法

相关推荐
水如烟5 小时前
孤能子视角:“组织行为学–组织文化“
人工智能
大山同学5 小时前
图片补全-Context Encoder
人工智能·机器学习·计算机视觉
薛定谔的猫19825 小时前
十七、用 GPT2 中文对联模型实现经典上联自动对下联:
人工智能·深度学习·gpt2·大模型 训练 调优
壮Sir不壮5 小时前
2026年奇点:Clawdbot引爆个人AI代理
人工智能·ai·大模型·claude·clawdbot·moltbot·openclaw
PaperRed ai写作降重助手6 小时前
高性价比 AI 论文写作软件推荐:2026 年预算友好型
人工智能·aigc·论文·写作·ai写作·智能降重
玉梅小洋6 小时前
Claude Code 从入门到精通(七):Sub Agent 与 Skill 终极PK
人工智能·ai·大模型·ai编程·claude·ai工具
-嘟囔着拯救世界-6 小时前
【保姆级教程】Win11 下从零部署 Claude Code:本地环境配置 + VSCode 可视化界面全流程指南
人工智能·vscode·ai·编辑器·html5·ai编程·claude code
正见TrueView6 小时前
程一笑的价值选择:AI金玉其外,“收割”老人败絮其中
人工智能
Imm7776 小时前
中国知名的车膜品牌推荐几家
人工智能·python
风静如云6 小时前
Claude Code:进入dash模式
人工智能