pytorch运行报错:CUDA out of memory

pytorch运行报错:CUDA out of memory

今天遇到问题 我的代码运行报这个错误:
RuntimeError: CUDA out of memory. Tried to allocate 594.00 MiB (GPU 0; 8.00 GiB total capacity; 6.84 GiB already allocated; 0 bytes free; 6.86 GiB reserved in total by PyTorch)

问题原因

CUDA out of memory,是计算过程中设置的内存超过了限制。

你的单次计算数据量太大了,改一改bach_size

修改

减小到原本数据量的一半。(2、4、8啥的都行)

运行

再次运行,发现还是报错,那就继续讲将你的BACH_SIZE除以2,重新训练

问题解决。

最近好忙,好久没有写修改问题的过程了。

如有帮助 点赞 收藏 关注!

相关推荐
Salt_07288 小时前
DAY 21 推断聚类后簇的类型
人工智能·机器学习·聚类
DisonTangor8 小时前
Step-Audio-R1 首个成功实现测试时计算扩展的音频语言模型
人工智能·语言模型·开源·aigc·音视频
DolphinDB智臾科技8 小时前
2025 工业软件趋势解读:国产时序数据库 DolphinDB 如何用“通用底座+AI”重塑工业物联网开发范式?
人工智能·物联网·时序数据库
Acrelhuang8 小时前
直击新能源电能质量痛点:安科瑞 APView500 在线监测装置应用方案
大数据·运维·开发语言·人工智能·物联网
阿杰学AI8 小时前
AI核心知识19——大语言模型之SFT(简洁且通俗易懂版)
人工智能·ai·语言模型·aigc·监督微调
牙牙要健康8 小时前
【open3d】示例:自动计算点人脸点云模型面部朝向算法
人工智能·python·算法
lalala_lulu8 小时前
Lambda表达式是什么
开发语言·python
hxj..8 小时前
AI发展史介绍
人工智能
科普瑞传感仪器8 小时前
基于六维力传感器的机器人柔性装配,如何提升发动机零部件装配质量?
java·前端·人工智能·机器人·无人机
r***86988 小时前
Python中的简单爬虫
爬虫·python·信息可视化