GPU加速与非加速的深度学习张量计算对比Demo,使用PyTorch展示关键差异

import torch

import time

创建大型随机张量 (10000x10000)

tensor_size = 10000

x_cpu = torch.randn(tensor_size, tensor_size)

x_gpu = x_cpu.cuda() # 转移到GPU

CPU矩阵乘法

start = time.time()

result_cpu = torch.mm(x_cpu, x_cpu.t())

cpu_time = time.time() - start

GPU矩阵乘法

torch.cuda.synchronize() # 确保GPU计时准确

start = time.time()

result_gpu = torch.mm(x_gpu, x_gpu.t())

torch.cuda.synchronize()

gpu_time = time.time() - start

print(f"CPU计算时间: {cpu_time:.4f}秒")

print(f"GPU计算时间: {gpu_time:.4f}秒")

print(f"加速比: {cpu_time/gpu_time:.1f}倍")

相关推荐
文火冰糖的硅基工坊1 小时前
[人工智能-大模型-19]:GitHub Copilot:程序员的 AI 编程副驾驶
人工智能·github·copilot
shuououo3 小时前
YOLOv4 核心内容笔记
人工智能·计算机视觉·目标跟踪
DO_Community6 小时前
普通服务器都能跑:深入了解 Qwen3-Next-80B-A3B-Instruct
人工智能·开源·llm·大语言模型·qwen
WWZZ20256 小时前
快速上手大模型:机器学习3(多元线性回归及梯度、向量化、正规方程)
人工智能·算法·机器学习·机器人·slam·具身感知
deephub7 小时前
深入BERT内核:用数学解密掩码语言模型的工作原理
人工智能·深度学习·语言模型·bert·transformer
PKNLP7 小时前
BERT系列模型
人工智能·深度学习·bert
兰亭妙微7 小时前
ui设计公司审美积累 | 金融人工智能与用户体验 用户界面仪表盘设计
人工智能·金融·ux
IT_Octopus8 小时前
triton backend 模式docker 部署 pytorch gpu模型 镜像选择
pytorch·docker·triton·模型推理
AKAMAI8 小时前
安全风暴的绝地反击 :从告警地狱到智能防护
运维·人工智能·云计算
岁月宁静8 小时前
深度定制:在 Vue 3.5 应用中集成流式 AI 写作助手的实践
前端·vue.js·人工智能