GAN的loss为nan的解决办法(成功)

跑了好几个GAN模型,一运行loss就巨大,几次epoch后就变NaN,或者直接就爆掉

有人说loss为nan是因为里面有log出问题了,但我想着文章里给的代码肯定得是能跑的啊

后来换了个电脑,重新把cyclegan的源码跑了一下,又完全好了

震惊!

后来我对比了一下底层,发现能跑通的这个跟其他的连conv2d的底层都不一样,所以判断是package的版本不一样

于是我把所有其他GAN代码的环境都变成能跑通的这个

其他的GAN也就都能跑通了

相关推荐
ykjhr_3d24 分钟前
AI 导游:开启智能旅游新时代
人工智能·旅游
jndingxin39 分钟前
OpenCV CUDA模块光流计算-----实现Farneback光流算法的类cv::cuda::FarnebackOpticalFlow
人工智能·opencv·算法
marteker41 分钟前
HubSpot推出与ChatGPT的深度集成引发兴奋与担忧
人工智能
码上地球1 小时前
卷积神经网络设计指南:从理论到实践的经验总结
人工智能·深度学习·cnn
余+185381628001 小时前
短视频矩阵系统文案创作功能开发实践,定制化开发
大数据·人工智能
MYH5161 小时前
神经网络 隐藏层
人工智能·深度学习·神经网络
晊恦X.1 小时前
第三章 k近邻法
人工智能
大笨象、小笨熊2 小时前
机器学习简介
人工智能·机器学习
速易达网络2 小时前
deepseek+coze开发的智能体页面
人工智能
[shenhonglei]2 小时前
早报精选 · 科技与产业趋势观察 | 2025年6月9日
人工智能