pytorch运行报错:CUDA out of memory

pytorch运行报错:CUDA out of memory

今天遇到问题 我的代码运行报这个错误:
RuntimeError: CUDA out of memory. Tried to allocate 594.00 MiB (GPU 0; 8.00 GiB total capacity; 6.84 GiB already allocated; 0 bytes free; 6.86 GiB reserved in total by PyTorch)

问题原因

CUDA out of memory,是计算过程中设置的内存超过了限制。

你的单次计算数据量太大了,改一改bach_size

修改

减小到原本数据量的一半。(2、4、8啥的都行)

运行

再次运行,发现还是报错,那就继续讲将你的BACH_SIZE除以2,重新训练

问题解决。

最近好忙,好久没有写修改问题的过程了。

如有帮助 点赞 收藏 关注!

相关推荐
心疼你的一切几秒前
昇腾CANN实战落地:从智慧城市到AIGC,解锁五大行业AI应用的算力密码
数据仓库·人工智能·深度学习·aigc·智慧城市·cann
AI绘画哇哒哒4 分钟前
【干货收藏】深度解析AI Agent框架:设计原理+主流选型+项目实操,一站式学习指南
人工智能·学习·ai·程序员·大模型·产品经理·转行
数据分析能量站6 分钟前
Clawdbot(现名Moltbot)-现状分析
人工智能
那个村的李富贵10 分钟前
CANN加速下的AIGC“即时翻译”:AI语音克隆与实时变声实战
人工智能·算法·aigc·cann
二十雨辰11 分钟前
[python]-AI大模型
开发语言·人工智能·python
陈天伟教授11 分钟前
人工智能应用- 语言理解:04.大语言模型
人工智能·语言模型·自然语言处理
Luhui Dev11 分钟前
AI 与数学的融合:技术路径、应用前沿与未来展望(2026 版)
人工智能
Yvonne爱编码21 分钟前
JAVA数据结构 DAY6-栈和队列
java·开发语言·数据结构·python
chian-ocean22 分钟前
量化加速实战:基于 `ops-transformer` 的 INT8 Transformer 推理
人工智能·深度学习·transformer
那个村的李富贵22 分钟前
从CANN到Canvas:AI绘画加速实战与源码解析
人工智能·ai作画·cann