# 【机器学习-20】-数值计算误差、逻辑回归/Softmax的数值稳定性优化、以及TensorFlow实现细节

【机器学习-20】-数值计算误差、逻辑回归/Softmax的数值稳定性优化、以及TensorFlow实现细节

以下是基于5张图片核心内容的系统性解析与解决方案,涵盖数值计算误差、逻辑回归/Softmax的数值稳定性优化、以及TensorFlow实现细节


1. 数值舍入误差问题(图1)

问题现象

代码12.0/10000 输出精确值 0.000200000000000000

代码2(1 + 1/10000) - (1 - 1/10000) 输出 0.000199999999999978(理论应为 0.0002)。

原因与解决方案

原因 :浮点数运算的有限精度导致舍入误差累积。

解决方案

• 避免相近数相减(如重构公式)。

• 使用高精度库(如decimal)或数值稳定的实现(如图2-5的损失函数优化)。


2. 逻辑回归的数值稳定性优化(图2, 图5)

原始问题

传统实现(数值不稳定):

python 复制代码
a = sigmoid(z)  # a接近0或1时,log(a)可能溢出
loss = -y*log(a) - (1-y)*log(1-a)
优化方案

合并计算 (图2):

• 直接使用logits(未激活的z),通过from_logits=True让损失函数内部合并Sigmoid和交叉熵计算:
python loss = BinaryCrossentropy(from_logits=True) # 内部优化避免数值溢出

代码实现(图5):

python 复制代码
model = Sequential([
    Dense(25, activation='sigmoid'),
    Dense(15, activation='sigmoid'),
    Dense(1, activation='linear')  # 输出logits
])
model.compile(loss=BinaryCrossentropy(from_logits=True))
f_x = tf.nn.sigmoid(model(X))  # 预测时显式调用sigmoid

3. Softmax回归的数值稳定性优化(图3, 图4)

原始问题

传统Softmax

• 计算e^z可能导致数值溢出(尤其z较大时)。

• 损失函数直接计算log(softmax(z))会放大误差。

优化方案

合并计算 (图3):

• 使用SparseCategoricalCrossentropy(from_logits=True),内部优化避免显式计算e^z
python loss = -log(softmax(z_y)) = -z_y + log(sum(e^z_k))

代码实现(图4):

python 复制代码
model = Sequential([
    Dense(25, activation='relu'),
    Dense(15, activation='relu'),
    Dense(10, activation='linear')  # 输出logits
])
model.compile(loss=SparseCategoricalCrossentropy(from_logits=True))
logits = model(X)
f_x = tf.nn.softmax(logits)  # 预测时显式调用softmax

4. 综合解题思路与代码模板

题目示例

"设计一个MNIST分类模型,要求避免数值溢出并解释优化原理。"

解答步骤
  1. 数据预处理:归一化像素值到[0,1]。
  2. 模型设计
    • 输出层使用linear激活,输出logits。
    • 隐藏层根据任务选择relu(多分类)或sigmoid(二分类)。
  3. 损失函数配置
    • 多分类:SparseCategoricalCrossentropy(from_logits=True)
    • 二分类:BinaryCrossentropy(from_logits=True)
  4. 预测处理 :对logits显式调用softmaxsigmoid
代码模板(MNIST多分类)
python 复制代码
import tensorflow as tf

model = tf.keras.Sequential([
    tf.keras.layers.Dense(25, activation='relu'),
    tf.keras.layers.Dense(15, activation='relu'),
    tf.keras.layers.Dense(10, activation='linear')  # logits
])

model.compile(
    optimizer='adam',
    loss=tf.keras.losses.SparseCategoricalCrossentropy(from_logits=True),
    metrics=['accuracy']
)

model.fit(X_train, y_train, epochs=10)

# 预测时转换logits为概率
logits = model(X_test)
probs = tf.nn.softmax(logits)

5. 关键总结

数值误差根源 :浮点数精度限制和指数运算溢出。

优化核心

逻辑回归 :合并Sigmoid与交叉熵计算。

Softmax :合并Softmax与交叉熵计算,利用from_logits=True

实践建议

• 输出层始终用linear,损失函数设置from_logits=True

• 避免手动实现损失函数,依赖框架优化。

如需进一步探讨具体数学推导或调试方法,请提供更多细节!



相关推荐
人工智能AI酱1 小时前
【AI深究】逻辑回归(Logistic Regression)全网最详细全流程详解与案例(附大量Python代码演示)| 数学原理、案例流程、代码演示及结果解读 | 决策边界、正则化、优缺点及工程建议
人工智能·python·算法·机器学习·ai·逻辑回归·正则化
bls0101011 小时前
逻辑回归全攻略:原理、实现与评估指标深度解析
逻辑回归
WangLanguager1 小时前
逻辑回归(Logistic Regression)的详细介绍及Python代码示例
python·算法·逻辑回归
爱喝可乐的老王1 小时前
机器学习监督学习模型--逻辑回归
人工智能·机器学习·逻辑回归
Ao0000001 小时前
机器学习——逻辑回归
人工智能·机器学习·逻辑回归
ZTLJQ2 小时前
深入理解逻辑回归:从数学原理到实战应用
开发语言·python·机器学习
DeepModel2 小时前
【分类算法】逻辑回归超详细讲解
分类·数据挖掘·逻辑回归
一段佳话^cyx2 小时前
详解逻辑回归(Logistic Regression):原理、推导、实现与实战
大数据·算法·机器学习·逻辑回归
码农三叔3 小时前
(10-5-03)大模型时代的人形机器人感知:基于RoboBrain大模型的人形机器人通用智能感知系统(3)模型训练
人工智能·机器学习·机器人·人形机器人