计算机的错误计算(四十九)

摘要 计算机的错误计算(四十八)讨论了GPU下一个深度学习中的"Hello World"程序的计算精度问题。本节探讨扩展后的程序在GPU下的计算精度问题。具体扩展为:首先归一化"Hello World"程序的结果矩阵Y,然后对其应用Tanh激活函数,最后与新生成的矩阵Z进行第二次矩阵乘法。结果表明,该扩展后的程序的误差也大为"扩展"。

先看代码:

python 复制代码
import torch

# 设置随机种子
torch.manual_seed(0)

# 创建张量并移动到GPU
W = torch.randn(5, 3) * 10
W = W.to('cuda')
X = torch.randn(3, 5) * 10
X = X.to('cuda')

# 计算矩阵乘法
Y = torch.mm(W, X)

# 在GPU上执行归一化操作
min_val = Y.min()
max_val = Y.max()
Y_normalized = (Y - min_val) / (max_val - min_val)

# 应用tanh函数
torch_tanh = torch.tanh(Y_normalized)

# 创建另一个张量并移动到GPU
Z = torch.randn(5, 4) * 10
Z = Z.to('cuda')

# 计算矩阵乘法
R_tanh = torch.mm(torch_tanh, Z)

# 设置小数位数
torch.set_printoptions(precision=8)

# 输出
print(R_tanh)

然后是输出:

在上面的输出中,有 2个值包含 3位错误数字,8个值包含 2位错误数字。这10个值的正确结果是:

其中红颜色数字表明 Python对应位置的数字不正确。因此,错误率不小于 2/8=25%的占比达到 10/20=50%. 它是计算机的错误计算(四十三)中CPU下错误率占比的 2倍。

相关推荐
远洋录13 分钟前
构建一个数据分析Agent:提升分析效率的实践
人工智能·ai·ai agent
IT古董1 小时前
【深度学习】常见模型-Transformer模型
人工智能·深度学习·transformer
沐雪架构师2 小时前
AI大模型开发原理篇-2:语言模型雏形之词袋模型
人工智能·语言模型·自然语言处理
摸鱼仙人~3 小时前
Attention Free Transformer (AFT)-2020论文笔记
论文阅读·深度学习·transformer
python算法(魔法师版)3 小时前
深度学习深度解析:从基础到前沿
人工智能·深度学习
小王子10243 小时前
设计模式Python版 组合模式
python·设计模式·组合模式
kakaZhui3 小时前
【llm对话系统】大模型源码分析之 LLaMA 位置编码 RoPE
人工智能·深度学习·chatgpt·aigc·llama
struggle20254 小时前
一个开源 GenBI AI 本地代理(确保本地数据安全),使数据驱动型团队能够与其数据进行互动,生成文本到 SQL、图表、电子表格、报告和 BI
人工智能·深度学习·目标检测·语言模型·自然语言处理·数据挖掘·集成学习
佛州小李哥4 小时前
通过亚马逊云科技Bedrock打造自定义AI智能体Agent(上)
人工智能·科技·ai·语言模型·云计算·aws·亚马逊云科技
追求源于热爱!4 小时前
记5(一元逻辑回归+线性分类器+多元逻辑回归
算法·机器学习·逻辑回归