技术栈
生成对抗网络
池央
2 小时前
深度学习
·
生成对抗网络
·
cnn
DCGAN - 深度卷积生成对抗网络:基于卷积神经网络的GAN
深度卷积生成对抗网络(DCGAN,Deep Convolutional Generative Adversarial Network)是生成对抗网络(GAN)的一种扩展,它通过使用卷积神经网络(CNN)来实现生成器和判别器的构建。与标准的GAN相比,DCGAN通过引入卷积层来改善图像生成质量,使得生成器能够生成更清晰、更高分辨率的图像。
池央
5 小时前
人工智能
·
神经网络
·
生成对抗网络
GAN - 生成对抗网络:生成新的数据样本
生成对抗网络(GAN,Generative Adversarial Network)是由Ian Goodfellow等人在2014年提出的一种深度学习框架。GAN的独特之处在于其采用了两种神经网络:生成器(Generator)和**判别器(Discriminator),这两者通过对抗训练的方式,能够生成非常逼真的数据样本。GAN广泛应用于图像生成、风格迁移、图像修复、文本生成等任务中,并在多个领域取得了突破性的进展。
池央
1 天前
人工智能
·
神经网络
·
生成对抗网络
WGAN - 瓦萨斯坦生成对抗网络
生成对抗网络(Generative Adversarial Networks, GANs)是由Ian Goodfellow等人于2014年提出的一种深度学习模型。它包括两个主要部分:生成器(Generator)和判别器(Discriminator),两者通过对抗训练的方式,彼此不断改进,生成器的目标是生成尽可能“真实”的数据,而判别器的目标是区分生成的数据和真实数据。
BuluAI
3 天前
算法
·
生成对抗网络
·
aigc
解密AIGC三大核心算法:GAN、Transformer、Diffusion Models原理与应用
在当今数字化时代,人工智能生成内容(AIGC)技术正以前所未有的速度改变着我们的生活和工作方式。从创意无限的文本生成,到栩栩如生的图像创作,再到动听的音乐旋律,AIGC的魔力无处不在。而这一切的背后,离不开三大核心算法的支撑:生成对抗网络(GAN)、Transformer和扩散模型(Diffusion Models)。今天,就让我们一起深入探索这些神秘算法的奥秘,揭开AIGC技术的神秘面纱。
机器学习小小白
4 天前
人工智能
·
python
·
深度学习
·
神经网络
·
机器学习
·
生成对抗网络
·
gan
【机器学习实战】kaggle 欺诈检测---使用生成对抗网络(GAN)解决欺诈数据中正负样本极度不平衡问题
【机器学习实战】kaggle 欺诈检测---如何解决欺诈数据中正负样本极度不平衡问题https://blog.csdn.net/2302_79308082/article/details/145177242
坐吃山猪
6 天前
人工智能
·
神经网络
·
生成对抗网络
卷积神经05-GAN对抗神经网络
使用Python3.9+CUDA11.8+Pytorch实现一个CNN优化版的对抗神经网络简单的GAN图片生成
顾道长生'
6 天前
人工智能
·
神经网络
·
生成对抗网络
(NIPS-2024)GAN 已死;GAN 万岁!现代基线 GAN
paper是布朗大学发表在NIPS 2024的工作paper title:The GAN is dead; long live the GAN! A Modern Baseline GAN
科技与数码
13 天前
人工智能
·
神经网络
·
生成对抗网络
倍思氮化镓充电器分享:Super GaN伸缩线快充35W
快节奏的时代,在旅游、办公等场景下,一款高效、便捷的充电器可以让我们的生活更便捷、高效。今天就给大家推荐一款倍思氮化镓充电器——Super GaN伸缩线快充35W。它具备多重亮点,可以满足我们在许多场景下的充电需求,成为我们的得力助手。
爱研究的小牛
13 天前
人工智能
·
神经网络
·
生成对抗网络
·
aigc
Synthesia技术浅析(六):生成对抗网络
Synthesia 的生成对抗网络(GAN)涵盖了虚拟人物生成、面部动画生成以及图像和视频优化等多个方面。
goomind
14 天前
深度学习
·
神经网络
·
生成对抗网络
·
gan
GANs的训练策略
尽管理论上存在唯一的解决方案,但由于多种原因,GANs训练很困难,而且往往不稳定。一个困难是,GANs的最优权重对应于损失函数的鞍点,而不是极小值。
LuH1124
16 天前
论文阅读
·
笔记
·
生成对抗网络
·
aigc
【论文阅读笔记】LTX-Video: Realtime Video Latent Diffusion
近来看到两篇之一从VAE的角度来提升图与视频生成效果包括效率的文章。另一篇「todo」project:https://github.com/Lightricks/LTX-Video
Jackilina_Stone
18 天前
人工智能
·
笔记
·
神经网络
·
生成对抗网络
·
华为
·
hcip
【HUAWEI】HCIP-AI-MindSpore Developer V1.0 | 第一章 神经网络基础(4 生成对抗网络 ) | 学习笔记
目录第一章 神经网络基础4 生成对抗网络▲ 生成对抗网络简介GAN生成对抗网络GAN的基本结构生成对抗网络目标函数
Trank-Lw
22 天前
人工智能
·
生成对抗网络
·
边缘计算
生成对抗网络,边缘计算,知识图谱,解释性AI
1.生成对抗网络 生成对抗网络(GAN)是深度学习的一个热门研究方向,未来可能会继续取得重大突破。例如,通过更好的生成模型,实现更高质量的图像、音频、视频等生成应用,例如虚拟现实、人工智能创作等。 2.边缘计算 边缘计算是深度学习的一个新兴研究方向,未来可能会成为深度学习行业的重要发展趋势。例如,通过将深度学习算法部署到边缘设备上,实现更高效的计算、更低的延迟、更好的隐私保护等。 3.知识图谱 知识图谱是人工智能领域的一个重要技术,与深度学习结合起来,可能会取得重大突破。例如,通过将深度学习与知识图谱相结
szpc1621
24 天前
c语言
·
开发语言
·
人工智能
·
单片机
·
嵌入式硬件
·
生成对抗网络
·
fpga开发
100V宽压输入反激隔离电源,适用于N道沟MOSFET或GaN或5V栅极驱动器,无需光耦合
说明:PC4411是一个隔离的反激式控制器在宽输入电压下具有高效率范围为2.7V至100V。它直接测量初级侧反激输出电压波形,不需要光耦合器或第三方用于调节的绕组。设置输出只需要一个电阻器电压。PC4411提供5V栅极驱动驱动外部N沟道MOSFET的电压或GaN。内部补偿和软启动函数减少了外部组件。保持高效率并使输出电压纹波最小化PC4411在轻载时以DCM模式运行。PC4411具有欠压锁定(UVLO)功能)短路保护(SCP)及以上温度保护(OTP)以帮助设备安全可靠地运行。PC4411采用6引脚TSOT
诚威_lol_中大努力中
1 个月前
人工智能
·
神经网络
·
生成对抗网络
关于VQ-GAN利用滑动窗口生成 高清图像
参考文章:VQGAN 论文与源码解读:前Diffusion时代的高清图像生成模型 | 周弈帆的博客概念补充:所谓“高清”,就是像素很多,比如,512x512就比64x64要高清很多
18号房客
1 个月前
人工智能
·
深度学习
·
机器学习
·
生成对抗网络
·
语言模型
·
自然语言处理
·
tensorflow
一个简单的深度学习模型例程,使用Keras(基于TensorFlow)构建一个卷积神经网络(CNN)来分类MNIST手写数字数据集。
下面是一个简单的深度学习模型例程,使用Keras(基于TensorFlow)构建一个卷积神经网络(CNN)来分类MNIST手写数字数据集。例程包括详细的代码和说明。
paixiaoxin
1 个月前
人工智能
·
深度学习
·
机器学习
·
生成对抗网络
·
计算机视觉
·
ocr
·
.net
CV-OCR经典论文解读|An Empirical Study of Scaling Law for OCR/OCR 缩放定律的实证研究
An Empirical Study of Scaling Law for OCROCR 缩放定律的实证研究
不当菜鸡的程序媛
1 个月前
人工智能
·
学习
·
生成对抗网络
GAN 是如何学习语义的?
GAN 并不依赖于提前预训练的模型。它的学习是通过以下几个过程完成的:在一些条件生成的GAN(Conditional GAN,简称CGAN)中,生成的过程可以有额外的引导信息,例如:
拓端研究室
1 个月前
人工智能
·
神经网络
·
生成对抗网络
Python生成对抗神经网络GAN预测股票及LSTMs、ARIMA对比分析ETF金融时间序列可视化
全文链接:https://tecdat.cn/?p=38528本文聚焦于利用生成对抗网络(GANs)进行金融时间序列的概率预测。介绍了一种新颖的基于经济学驱动的生成器损失函数,使 GANs 更适用于分类任务并置于监督学习环境中,能给出价格回报的全条件概率分布,突破传统点估计方式,实现不确定性估计。通过股票数据的数值实验验证了所提方法的有效性,相比经典监督学习模型如 LSTMs 和 ARIMA 获得了更高的夏普比率。
赵大仁
1 个月前
人工智能
·
深度学习
·
生成对抗网络
基于深度学习的图像生成技术:GAN的进阶探索与应用实践
生成对抗网络(GAN)自2014年提出以来,已成为深度学习领域的研究热点。其强大的图像生成能力在众多领域展现出无限潜力。本文将深入探讨GAN的高级技术,分享实践经验,并分析当前GAN研究的最新进展。